• SETI.Germany News RSS-Feed

    von Veröffentlicht: 28.04.2017 07:40
    1. Kategorien:
    2. Projekte

    Ab sofort werden auch Simulationen für das LHCb-Experiment über LHC@home verteilt (das zugehörige Testprojekt nannte sich vor der Zusammenführung aller LHC-Projekte Beauty@LHC):

    LHCb-Anwendung im Produktivbetrieb
    Wir freuen uns, bekanntzugeben, dass die LHCb-Anwendung jetzt die Beta-Phase verlassen hat und im Produktivbetrieb auf LHC@home ist. Danke euch allen für euren wertvollen Beitrag.

    Wir sind dankbar, euch alle als Teil unseres Projektes zu haben.

    Bitte nutzt das Forum zur LHCb-Anwendung im Problemfall oder für Rückmeldungen.

    Vielen Dank,
    Cinzia
    27.04.2017, 8:50:51 MEZ


    Das Projekt hat auch ein wenig aufgerüstet, um größeren Andrang bei den Dateitransfers vertragen zu können:

    Neuer Dateiserver
    Wir haben einen neuen Dateiserver für Downloads und Uploads hinzugefügt, um mit höherer Last besser umgehen zu können. Sollte es Fehler beim Herunter- oder Hochladen von Aufgaben geben, meldet dies bitte im Forum.

    Danke für eure Teilnahme an LHC@home!
    26.04.2017, 15:00:48 MEZ


    Originaltexte:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    LHCb application is in production
    We are very happy to announce that the LHCb application is out of beta and is now in production mode on LHC@home. Thank you all for your precious contribution.

    We are grateful to have you all as part of our project.

    Please, refer to the LHCb application forum for any problem or feedback.

    Thanks a lot
    Cinzia
    27 Apr 2017, 7:50:51 UTC
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    New file server
    We have added a new file server for download/upload to scale better with higher load. If there should be errors with download or upload of tasks, please report on the MBs.

    Thanks for contributing to LHC@home!
    26 Apr 2017, 14:00:48 UTC
    von Veröffentlicht: 26.04.2017 16:45
    1. Kategorien:
    2. Projekte

    Bereits seit einem Monat verschickt das Projekt Enigma@Home keine neuen WUs mehr, inzwischen wurde dazu folgende Erklärung gepostet:

    Weshalb die WU-Erzeugung angehalten wurde
    Ich habe die Erzeugung neuer WUs angehalten, weil es meiner Meinung nach nicht sinnvoll ist, die Serie fortzusetzen, welche mit dem originalen ("Marine"-)Wörterbuchsatz läuft, da aktualisierte Wörterbuchsätze bereits mit einer ähnlichen Zahl von Neustarts fehlgeschlagen sind.

    Meiner Meinung nach ist es sinnvoller, es mit einem anderen Wörterbuchsatz und einer verbesserten Anwendung zu versuchen.
    Beides benötigt jedoch großere Aktualisierungen auf der Serverseite - aus Leistungsgründen habe ich einige ursprünglich vorhandene Funktionalitäten entfernt und muss sie nun wieder hinzufügen. Das wird 2-4 Wochen dauern, da mir mein Beruf sehr wenig Freizeit lässt. Ich werde auch die Datenbank von allen Überresten bereinigen, es sind immer noch 20000 WUs in der Datenbank, wahrscheinlich sind die meisten davon im Laufe der Zeit angesammelte kaputte WUs (es gab einmal einen plötzlichen Ausfall des SSD, auf dem sich das Dateisystem der Datenbank befindet, es wurde durch eine RAID5-Konfiguration ersetzt und die Daten wurden aus dem Backup wiederhergestellt, aber ~4500 WUs landeten in einem verkorksten Zustand). Ich werde einige Tage warten und dann alle verwaisten WUs entfernen.

    Außerdem werden alle (größeren) zukünftigen Serien in eine Gruppe kleinerer Unterserien aufgespalten. Während eine Serie läuft, benötigt der Server Zugriff auf alle zurückgemeldeten Ergebnisse, und wenn die Datenbank zu groß wird, leidet die Leistung darunter. Es erschwert auch die Erstellung von "Offline"-Backups wegen der Datenmenge im Datenbankauszug.

    In ein paar Tagen werde ich bisherige Ergebnisse zum Download bereitstellen, falls jemand einen Blick darauf werfen möchte.
    20.04.2017, 00:04:21 MEZ

    Originaltext:
    Zitat Zitat von http://www.enigmaathome.net/
    The reason why work generator is stopped
    I have stopped the work generator because IMO it does not make sense to continue the batch that runs with the original ("naval") dictionary set, where upgraded dictionary sets have already failed with similar number of target restarts.

    IMO it's better to try with another dictionary set and tweaked app.
    Both cases, however, require major upgrades on the server side - for performance reasons, I have removed some of the functionalities it originally had and now I have to add them back. It's going to take 2-4 weeks because my job leaves me very little spare time. I'm also going to clean the database from any leftovers, there are still over 20k workunits in the db, probably most of them are broken WUs that accumulated over time (at some point there was a sudden failure of SSD drive where the database filesystem is located, it was replaced by RAID5 setup with the data restored from backup, but ~4500 workunits/results ended in messed up state). I'll wait a few days and then all the orphaned workunits / results will be removed.

    Also, all future (larger) batches will be split into a group of smaller sub-batches. While the batch is running, the server requires access to all the results that were returned and if the database gets to big, performance suffers. It also makes creating 'offline' backups harder due to the amount of data in the db dump.

    In a few days I'll post downloadable results from the previous batches in case anyone wants to take a look.
    19 Apr 2017, 23:04:21 UTC
    von Veröffentlicht: 26.04.2017 08:35
    1. Kategorien:
    2. Projekte

    Sourcefinder, das Schwesterprojekt von POGS, testet ein Programm zum Identifizieren von Radioquellen und ist nun im Produktivbetrieb angekommen. Neue WUs werden jeden Mittwoch generiert, gelegentlicher Leerlauf ist nicht ausgeschlossen.

    Wir sind nun bereit für den Produktivbetrieb!
    Ja, der Tag ist gekommen. Sourcefinder wechselt endlich vom Test- in den Produktivbetrieb!

    Die meisten Fehler und Probleme, die wir während der Tests hatten, wurden so weit ausgebügelt, dass ich zufrieden bin.
    Alle Test-WUs wurden abgebrochen, alle WUs und Ergebnisse wurden archiviert.
    Wir werden nun mit dem Crunchen tatsächlicher Daten beginnen, 681 GB davon!
    Code:
    27G cubelets_1
    27G cubelets_2
    27G cubelets_3
    27G cubelets_4
    27G cubelets_5
    27G cubelets_6
    27G cubelets_7
    27G cubelets_8
    27G cubelets_9
    27G cubelets_10
    27G cubelets_11
    27G cubelets_12
    27G cubelets_13
    27G cubelets_14
    27G cubelets_15
    27G cubelets_16
    27G cubelets_17
    27G cubelets_18
    27G cubelets_19
    27G cubelets_20
    27G cubelets_21
    27G cubelets_22
    27G cubelets_23
    27G cubelets_24
    27G cubelets_25
    8.6G cubelets_26
    681G total
    Wir werden mit den Würfelchen (cubelets) 1 bis 4 beginnen.

    Ein paar weitere Bemerkungen:

    Ich habe einen neuen Dienst auf dem Server eingerichtet, welcher WUs und Ergebnisse, die älter als 2 Wochen sind, archiviert, daher werdet ihr diese Daten nicht auf der Webseite sehen.

    Während der Testphase ercrunchte Credits bleiben erhalten.

    Alle Produktiv-WUs werden unter Durchlauf 10 erfasst.

    Das WU-Limit pro Rechner wird erhöht. Ich plane, die entsprechenden Einstellungen zu ändern von
    Code:
    <max_wus_to_send>1</max_wus_to_send>
    <max_wus_in_progress>2</max_wus_in_progress>
    <max_ncpus>4</max_ncpus>
    zu
    Code:
    <max_wus_to_send>8</max_wus_to_send>
    <max_wus_in_progress>3</max_wus_in_progress>
    <max_ncpus>16</max_ncpus>
    Dadurch sollten auf jedem Rechner bis zu 16 CPUs verwendet werden und jeder Teilnehmer kann bis zu 3 WUs pro CPU gleichzeitig auf dem Rechner haben. Die maximale Zahl WUs, die ein Client gleichzeitig haben kann, beträgt nun also 48; achtet darauf, dass ihr diese auch alle rechtzeitig berechnen könnt!
    Außerdem können nun bei jeder Scheduleranfrage bis zu 8 WUs gesendet werden.
    Diese Zahlen sind derzeit provisorisch, wenn es Probleme oder Vorschläge gibt, bin ich gerne bereit, sie zu ändern.

    Etwas zur Zukunft:

    Ich möchte endlich die theSkyNet-Webseite aktualisieren, sodass sie den aktuellen Status des Sourcefinder-Projektes korrekt wiedergibt.

    Für alle, die es interessiert, werde ich jede Woche Statistiken zum Projekt posten.

    Ich werde definitiv jeden Mittwoch neue WUs herausgeben, manchmal auch an anderen Tagen, wenn ich Zeit dazu habe.

    Mein Hauptaugenmerk liegt ab jetzt darauf, Probleme mit der theSkyNet-Webseite zu beheben, da diese schon viel zu lange an der Lebenserhaltungsmaschine hängt.


    Danke euch allen, die bisher beim Sourcefinder-Projekt mitgeholfen haben, wir wissen eure Arbeit sehr zu schätzen. Nur dank euch konnte dieses Projekt endlich den Produktivbetrieb erreichen .
    19.04.2017, 2:22:01 MEZ


    Originaltext:
    Zitat Zitat von http://54.196.169.236/duchamp/
    We're now ready for Production!
    Yup, the day has come. Sourcefinder is finally moving from testing to production!

    Most of the bugs and issues we've been having during testing have been ironed out to a level that I'm happy with.
    All testing work units have been cancelled, and all work units and results have been archived.
    We're now going to begin to crunch actual data, 681GB of it!
    [...]

    We're starting with cubelet sets 1 to 4.

    A few other notes:

    I've added a new process to the server to archive work unit and result data older than 2 weeks, so you wont be able to see any of that archived data on the website.

    Any credits earned during testing will remain during production.

    All production work units will be registered under run 10.

    The limit on the number of work units sent to a single host will be increased. I'm planning on modifying the max work unit configuration from:
    Code:
    <max_wus_to_send>1</max_wus_to_send>
    <max_wus_in_progress>2</max_wus_in_progress>
    <max_ncpus>4</max_ncpus>
    to
    Code:
    <max_wus_to_send>8</max_wus_to_send>
    <max_wus_in_progress>3</max_wus_in_progress>
    <max_ncpus>16</max_ncpus>
    This should mean up to 16 CPUS on each machine will be used, and each user will be able to have up to 3 work units per CPU at any one time. This means the maximum number of WUs that a client can be running at any one time is now 48; just make sure you can crunch them all in time!
    Additionally, each scheduler request cycle will provide up to 8 work units.
    These numbers are tentative as well, if there are any issues or recommendations, I'm more than happy to change them.

    A few future things:

    I plan on finally updating theSkyNet website to accurately reflect the current state of the Sourcefinder project.

    I'll be reporting the project stats each week, for those who are interested.

    I'll definitely be pushing work units out every Wednesday, and sometimes on other days of the week if I get time.

    My main focus from now on is fixing the issues with theSkyNet website, as it's been running on life support for miles too long.


    Thank you everyone who has helped out with the Sourcefinder project so far, we greatly appreciate the work you've all done. It's because of all of you that this project was able to eventually reach production .
    19 Apr 2017, 1:22:01 UTC
    von Veröffentlicht: 26.04.2017 07:40
    1. Kategorien:
    2. Projekte

    In einer neuen Publikation wird ein iterativer Bergsteigeralgorithmus vorgestellt, mit welchem das recht neue Projekt Acoustics@home Schallgeschwindigkeitsprofile unter Wasser invertiert:

    Neue Publikation
    Eine Publikation, in welcher beschrieben wird, wie wir die Inversionsprobleme in der Hydroakustik lösen, wurde veröffentlicht. In dieser Publikation betrachten wir Berechnungen, die auf einem Rechencluster durchgeführt wurden. Neuerdings werden ähnliche Berechnungen mit Acoustics@home durchgeführt.
    Oleg Zaikin und Pavel Petrov: Application of iterative hill climbing to the sound speed profile inversion in underwater acoustics. In: Proc. of the Fifth International Workshop on Mathematical Models and their Applications. IOP Conference Series: Materials Science and Engineering, Volume 173. 2017. S. 1-8 (engl.)
    19.04.2017, 17:54:48 MEZ

    Originaltext:
    Zitat Zitat von http://www.acousticsathome.ru/boinc/
    New paper
    A paper, in which it is described how we solve the inversion problems in underwater acoustics, was published. In this paper we consider the calculations performed on a computing cluster. Recently the similar calculations are performed in Acoustics@home.
    Oleg Zaikin and Pavel Petrov. Application of iterative hill climbing to the sound speed profile inversion in underwater acoustics // In Proc. of the Fifth International Workshop on Mathematical Models and their Applications. IOP Conference Series: Materials Science and Engineering, Volume 173. 2017. pp. 1-8

    [...]
    19 Apr 2017, 16:54:48 UTC
    von Veröffentlicht: 25.04.2017 20:55
    1. Kategorien:
    2. Projekte

    Eine derzeit ungewohnt lange Zeit ohne Megaprimzahlfund bei PrimeGrid hat nun ihr Ende gefunden:

    Noch eine PPS-Megaprimzahl!
    Am 23. April 2017 um 23:31:40 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:

    663*2^3390469+1

    Die Primzahl hat 1020636 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 205 insgesamt.

    Die Entdeckung gelang Rolf Henrik Nilsson (puh32) aus Schweden mit einem Intel Core i7-6700K @ 4,00 GHz mit 16 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 49 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 24. April 2017 um 12:04:31 MEZ von Randall Scalise (Randall J. Scalise) aus den Vereinigten Staaten mit einem Intel Core i5-4570 @ 3,20 GHz mit 8 GB RAM unter Linux bestätigt. Dieser Rechner brauchte etwa 1 Stunde 8 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    25.04.2017 | 1:01:21 MEZ


    Außerdem ist das bisherige Standard-Subprojekt The Riesel Problem (Sieve) nun bei der optimalen Siebtiefe angelangt und es werden keine neuen Aufgaben mehr generiert:

    Es könnte erforderlich sein zu handeln: TRP-Sieve wird jetzt beendet.
    Das Subprojekt TRP-Sieve ist beendet, es wird keine Arbeit mehr für dieses Subprojekt generiert. Zwar werden für kurze Zeit noch einige recycelte Aufgaben verfügbar sein, aber auch diese werden schließlich fertig sein.

    Falls TRP-Sieve das einzige PrimeGrid-Subprojekt ist, das bei euch läuft, solltet ihr ein anderes Subprojekt auswählen. Wir empfehlen GCW-Sieve. Das ist TRP-Sieve sehr ähnlich.

    Da TRP-Sieve bisher automatisch für neue Teilnehmer eingestellt wurde, ist euer Rechner derzeit sehr wahrscheinlich auf TRP-Sieve eingestellt, falls ihr niemals explizit ein Subprojekt ausgewählt habt. Bitte besucht die PrimeGrid-Einstellungsseite um das zu ändern.

    Für Diskussion und weitere Informationen siehe bitte diesen Forenthread.
    25.04.2017 | 14:54:01 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    Another PPS-Mega Prime!
    On 23 April 2017, 22:31:40 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:

    663*2^3390469+1

    The prime is 1,020,636 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 205th overall.

    The discovery was made by Rolf Henrik Nilsson (puh32) of Sweden using an Intel(R) Core(TM) i7-6700K CPU @ 4.00GHz with 16GB RAM, running Microsoft Windows 10 Core Edition. This computer took about 49 minutes to complete the primality test using LLR.

    The prime was verified on 24 April 2017 11:04:31 UTC, by Randall Scalise (Randall J. Scalise) of the United States using an Intel(R) Core(TM) i5-4570 CPU @ 3.20GHz with 8GB RAM running Linux. This computer took about 1 hour 8 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    25 Apr 2017 | 0:01:21 UTC
    Zitat Zitat von http://www.primegrid.com
    Action may be required: TRP-Sieve is now shut down.
    The TRP Sieve project has come to an end, and work generation for that subproject has stopped. While there will be a few recycled tasks available for a short time, eventually they will all be gone.

    If TRP-Sieve is the only PrimeGrid subproject you're running, you should select another of our subprojects to run. We suggest GCW-Sieve. It's very similar to TRP-Sieve.

    Since TRP-Sieve previously was automatically assigned to new users, if you've never explicitly selected which subproject to run, there's a good chance your computer is currently configured to TRP-Sieve. Please go to the PrimeGrid preferences page to change your preferences.

    For discussion and more information, please see this forum thread.
    25 Apr 2017 | 13:54:01 UTC
    von Veröffentlicht: 11.04.2017 13:35
    1. Kategorien:
    2. Projekte

    Derzeit wurden und werden einige Aktualisierungen der Anwendungen durchgeführt:

    Code-Aktualisierung
    Die meisten von euch haben vielleicht bemerkt, dass wir neuen Code für Universe@home eingeführt haben. Die Änderungen sind sowohl inhaltlicher (neue Modelle astrophysikalischer Phänomene) als auch technischer Natur (Fehler im Code). Wir hoffen, dass sie die Probleme beheben, die einige von euch mit der vorherigen Code-Version hatten.

    Wir forschen immer noch bezüglich Doppelsternen und ihrem Einfluss auf ihre Umgebung. Neue Ergebnisse, die in Kürze veröffentlicht werden, haben neue Richtungen aufgezeigt. Dank eurer Hilfe kann unsere Arbeit weitergehen!

    [...]
    11.04.2017, 10:30:50 MEZ

    Originaltext:
    Zitat Zitat von http://universeathome.pl/universe/
    Code update
    Most of you have probably noticed that we’ve started to introduce a new code to Universe@Home. The changes are content-related (new models of astrophysical phenomena) as well as technical (errors in the code). We hope that they will solve the problems some of you encountered in the previous version of the code.

    We’re still going to do research oriented towards binary stars and their influence on their surroundings. New results, which will be published shortly, have indicated new directions. Thanks to your help, our work will be continued!

    [...]
    11 Apr 2017, 9:30:50 UTC
    von Veröffentlicht: 02.04.2017 13:00
    1. Kategorien:
    2. Projekte

    Nach dem spektakulären Auftakt der Challenge Series 2017 im Januar und dem Ausfall der für März geplanten Challenge steht nun die zweite Challenge der diesjährigen Serie vor der Tür. Es ist eine weitere lange Challenge, diesmal auch mit langen und recht fordernden WUs:

    Mathematics Awareness Month Challenge
    Beginn: 07.04.2017, 12:00 UTC = 13:00 MEZ = 14:00 MESZ
    Ende: 22.04.2017, 12:00 UTC = 13:00 MEZ = 14:00 MESZ
    Subprojekt: Prime Sierpinski Problem LLR (PSP)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs des Subprojekts Prime Sierpinski Problem LLR (PSP), die nach dem 07.04. um 14:00 Uhr heruntergeladen und vor dem 22.04. um 14:00 Uhr zurückgemeldet werden! Das gewünschte Subprojekt kann in den PrimeGrid-Einstellungen festgelegt werden.

    Anwendungen gibt es für Windows, Linux und MacOS (Intel), jeweils 32- und 64-Bit. Wer in letzter Zeit keine WUs von einem PrimeGrid-LLR-Subprojekt berechnet hat, sollte dies vielleicht schon vor der Challenge nachholen, um die relativ große Anwendung (~35 MB) bereits auf dem Rechner zu haben.

    Die verwendete LLR-Anwendung belastet die CPU sehr stark und toleriert keinerlei Fehler. Daher bitte nicht zu stark übertakten und auf gute Kühlung achten!

    Zu erwarten sind WU-Laufzeiten von über einem Tag auf den schnellsten CPUs, mehreren Tagen auf langsameren und älteren CPUs. Moderne Intel-CPUs haben durch die automatisch benutzten Optimierungen (AVX, FMA3) einen erheblichen Vorteil. Die meisten Rechner mit i7-CPU laufen effizienter, wenn Hyperthreading nicht benutzt wird.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist. Sollte sich ein Ergebnis als falsch erweisen, werden die Punkte natürlich wieder abgezogen.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Zum Diskussionsthread
    von Veröffentlicht: 01.04.2017 10:55
    1. Kategorien:
    2. Projekte

    Eine interessante Meldung vom Samstag, den 1. April, sei hiermit nachgereicht.

    Jetzt offiziell: Langfristige Zusammenarbeit mit SpaceX
    Seit April 2004 bestand ein Geheimhaltungsvertrag mit Space Exploration Technologies Corporation, besser bekannt als SpaceX. Im Jahr 2017, genaugenommen mit Abschluss des Livestreams eines Starts einer wiederverwendeten Rakete gestern, lief der Vertrag aus und wir dürfen nun endlich öffentlich darüber sprechen, was in dieser ganzen Zeit hinter den Kulissen abgelaufen ist, während wir nun eine offene Zusammenarbeit mit SpaceX für ihre kommenden Missionen beginnen.



    Das All ist hart, Raketentechnik im Speziellen ist sehr hart. 2004, nur wenige Jahre nach Gründung der Firma SpaceX, sind sie mit ihren Problemen an uns herangetreten. Es war klar geworden, dass es einfach zu schwierig wäre, die Raketen und die Weiterentwicklung, die für NASA-Starts notwendig war, fertigzustellen, und der Vorschlag war, stattdessen einfach sehr überzeugende computergenerierte 3D-Grafiken zu rendern.
    Hier kommt BURP ins Spiel. Im Jahr 2004 war es sehr schwierig, diese Art überzeugender Animationen durchzuführen - sie haben das ursprünglich mit normalen Bürorechnern und vereinfachten Nacht-Darstellungen versucht, aber den Leuten auf Twitter ist aufgefallen, dass viele von den frühen "Starts" scheinbar nachts durchgeführt wurden. Recht schnell wurde das Rendern zu BURP ausgelagert und wir haben ein System davorgeschaltet, dass wie ein Renderservice aussah, wo man Blender-Animationen gerendert bekommen konnte - während wir tatsächlich SpaceX-Starts für ihre "Live"-Streams gerendert haben.

    Da der Geheimhaltungsvertrag jetzt ausgelaufen ist, müssen wir nicht mehr warten, bis der Livestream beginnt, um öffentlich zu zeigen, was gerendert wird.

    Elon Dusk, der CEO von SpaceX, kommentiert das wie folgt:
    BURP ist großartig. Jetzt, wo es so stark gewachsen ist, rechnen wir damit, Marsmissionen vor 2019 rendern zu können, es ist ausgeschlossen, dass wir es nicht so aussehen lassen können, als würden wir damit loslegen.
    Außerdem ist ein Teil der Vereinbarung, dass BURP zu den ersten Kunden gehören wird, deren Server ins All gebracht werden, sobald SpaceX mit der Forschung für wirklich echte Raketen aufgeholt hat. Dadurch sollten die WUs viel leichter werden.

    Falls ihr die gestrige Übertragung verpasst habt, schaut euch die Aufzeichnung des "Live"-Streams an.
    01.04.2017, 11:54:32 MEZ

    Originaltext:
    Zitat Zitat von http://burp.renderfarming.net/forum_thread.php?id=2984
    Now Official: Long-term Collaboration with SpaceX
    Since April 2004 we have been under a Non-Disclosure Agreement with Space Exploration Technologies Corporation, better known as SpaceX. In 2017, yesterday in fact with the completion of the rocket re-launch live stream, the contract ran out and we can now finally talk publically about what has been going on behind the scenes all this time as we move forward into an open collaboration with SpaceX on their upcoming missions.



    Space is hard, rocket science in particular is very hard. In 2004, just a few years after the SpaceX company was founded, they approached us with the problems they were facing. It had become clear that it was simply too dificult to complete the rockets and development that was required for NASA launches and instead the proposal was to simply render very convincing computer generated 3D graphics instead.
    This is where BURP comes in. In 2004 it was very difficult to do these kinds of convincing animations - they initially tried using just normal office computers with simplified night-time visualizations but people on Twitter had become aware that many of the early "launches" seemed to occour at night. Quite quickly the rendering was offloaded onto BURP and we set up a front to look like a rendering service where people could get their Blender animations rendered - when in fact we were rendering SpaceX launches for their "live" streams.

    Now that the NDA contract has run out we don't have to wait until the live stream starts in order to publicly show what is being rendered.

    Elon Dusk, CEO of SpaceX had the following comment:
    BURP is awesome. Now that it has grown so much we expect to be able to render missions to Mars way before 2019, there is nowhere we cannot appear to be going.
    Also, when SpaceX eventually catches up with the reasearch for real actual rockets, part of the agreement is that BURP will get to be amongst the very first customers to launch its servers into space. That should make the workunits a lot lighter.

    If you missed yesterday's show be sure to check out the "live" stream recording.
    1 Apr 2017, 10:54:32 UTC
    von Veröffentlicht: 01.04.2017 00:00
    1. Kategorien:
    2. SETI.Germany

    Liebe Mitcruncher,

    nach drei Monaten Erforschung der Gene über das Projekt TN-Grid wurde im internen Subforum für alle SETI.Germany-Mitglieder nun ein Projekt als Empfehlung für die nächsten drei Monate ausgewählt, welches sich der Erforschung von Asteroiden widmet: Asteroids@home.

    Projekt-URL: http://asteroidsathome.net/boinc/
    SETI.Germany beitreten: http://asteroidsathome.net/boinc/tea..._form.php?id=7
    Artikel im SG-Wiki: https://www.seti-germany.de/wiki/Asteroids@home

    Team-Vergleichstats von XSmeagolX: https://timo-schneider.de/sgstats/quartal201702/

    Anwendungen gibt es für Windows, Linux, MacOS und FreeBSD (jeweils 32
    und 64 Bit) sowie Raspbian auf Raspberry Pi und Android auf ARM. Auch eine Anwendung für CUDA-fähige NVIDIA-Grafikkarten ist verfügbar, jedoch sind Grafikkarten hier üblicherweise weniger effizient als CPUs, zumal für CPUs auch Befehlssatzerweiterungen wie SSE3 und AVX benutzt werden, sofern die CPU diese unterstützt.

    Dieses Projekt soll eine zwanglose Empfehlung für alle sein, die noch etwas für arbeitslose Rechner suchen, oder auch als Backupprojekt während anderer Aktionen dienen.

    Wir laden alle SETI.Germany-Mitglieder ein, für die eine oder andere WU vorbeizuschauen. Happy Vollgascrunching!
    von Veröffentlicht: 30.03.2017 16:20
    1. Kategorien:
    2. Projekte

    Das Projekt wird morgen (31.03.2017) für einige Stunden nicht erreichbar sein:

    Serverwartung
    Da der Server morgen (31. März) in ein anderes Gebäude umzieht, müssen wir unseren Hauptserver für einige Stunden abschalten.
    Es wird gegen 11:00 MEZ/12:00 MESZ losgehen und etwa 4 Stunden dauern.
    30.03.2017, 14:35:34 MEZ

    Originaltext:
    Zitat Zitat von http://universeathome.pl/universe/
    Server maintenance
    Due to moving server to another building tomorrow (31th March) we need to shutdown our main server for few hours.
    This will start about 10am UTC and it will take about 4 hours.
    30 Mar 2017, 13:35:34 UTC

    Seite 1 von 49 1 2 3 11 ... LetzteLetzte
Single Sign On provided by vBSSO