• SETI.Germany News RSS-Feed

    von Veröffentlicht: 02.08.2017 20:10
    1. Kategorien:
    2. Projekte

    Innerhalb von weniger als zwei Tagen wurde mit der GPU-Anwendung eine Nachricht entschlüsselt. Obwohl das Ergebnis zunächst nicht besonders gut bewertet wurde, fiel es beim Vergleich mit anderen Wörterbüchern auf. Der Klartext lautet demnach:
    Code:
    quellestriqabteilungabzwonullnullnullxlsixlsixflameinsnullkmnordostwxnikolajewoxnikolajewo
    KLDIO geknackt
    (dies ist ein schneller Repost aus dem Number-Crunching-Forum)

    Vor ein paar Stunden hat Dave GPU den Klartext von KLDIO 90 gemeldet.
    Weitere Informationen wurden in diesem Thread gepostet

    Bitte brecht alle g3_kldio*-WUs ab, die noch nicht begonnen wurden, da diese nicht mehr benötigt werden.
    02.08.2017, 18:13:07 MEZ

    Originaltext:
    Zitat Zitat von http://www.enigmaathome.net/
    KLDIO broken
    (this is a quick repost from Number Crunching)

    A few hours ago Dave GPU returned the plaintext of KLDIO 90.
    More info was posted in this forum thread

    Please abort all the g3_kldio* workunits that haven't started yet, as they're not needed anymore.
    2 Aug 2017, 17:13:07 UTC
    von Veröffentlicht: 27.07.2017 18:15
    1. Kategorien:
    2. Projekte

    Es wurden weitere Veränderungen bezüglich der Verteilung von SixTrack-WUs unternommen. Wer noch immer Probleme hat, solche WUs zu erhalten, wird gebeten, sich zu melden.

    Optimierung der Verteilung von SixTrack-Aufgaben
    Liebe Freiwillige,

    wir versuchen, die Verteilung von SixTrack-Aufgaben zu verbessern. Wenn eure Rechner mehr Aufgaben bearbeiten könnten, aber während des Serverkontakts keine bekommen, könnt ihr uns das wissen lassen und uns die Log-Dateien eurer Clients schicken? Bitte setzt dazu den Thread "SixTrack Tasks NOT being distributed" fort, den Eric hier eröffnet hat:
    http://lhcathomeclassic.cern.ch/sixt...ad.php?id=4324,
    sodass wir alle Probleme an einem Ort sammeln können. Auf diese Weise können wir versuchen, die Parameter, welche die Verteilung der Aufgaben auf Serverseite kontrollieren, besser einzustellen.

    Wir bitten außerdem um Entschuldigung für Creditverlust wegen der versehentlichen Löschung von Einträgen aus der Hauptdatenbank; siehe dazu diese Nachricht:
    http://lhcathomeclassic.cern.ch/sixt...id=31563#31563
    Wir ihr sehen könnte, läuft die Aufgabenverteilung gleichmäßig seit Anfang der Woche

    Danke im Voraus für eure wertvolle Mitarbeit,
    Alessio und Riccardo für das SixTrack-Team
    27.07.2017, 13:44:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    Optimising distribution of SixTrack tasks
    Dear Volunteers,

    we are trying to improve the distribution of SixTrack tasks. If your host could process more tasks but during the project update you don't receive any, can you let us know and send us your client logging report? Please continue the thread "SixTrack Tasks NOT being distributed" opened by Eric here:
    http://lhcathomeclassic.cern.ch/sixt...ad.php?id=4324
    so that we can collect all the issues in only one place. In this way, we could try to better tune parameters controlling the distribution of tasks on the server side.

    At the same time, we apologize for the loss of credits following the accidental deletion of lines in the main DB - please see message:
    http://lhcathomeclassic.cern.ch/sixt...id=31563#31563
    As you can see, task distribution is progressing regularly since the beginning of the week

    Thanks in advance for your precious cooperation,
    Alessio and Riccardo, for the SixTrack Team
    27 Jul 2017, 12:44:17 UTC
    von Veröffentlicht: 26.07.2017 18:10
    1. Kategorien:
    2. Projekte

    Neben den ersten Ergebnissen der Suche nach niedrigfrequenten kontinuierlichen Gravitationswellen in den Daten von Advanced LIGO wurden auch zwei Publikationen mit Details zur Suchmethode zur Veröffentlichung eingereicht:

    Drei neue Einstein@Home-Publikationen
    Drei Publikationen voller neuer Wissenschaft von Einstein@Home sind jetzt auf dem arXiv-Vordruck-Server verfügbar. Erste niedrigfrequente Einstein@Home-Himmelsdurchmusterung nach kontinuierlichen Gravitationswellen in Daten von Advanced LIGO (engl. First low-frequency Einstein@Home all-sky search for continuous gravitational waves in Advanced LIGO data) beschreibt unsere ersten Ergebnisse einer Suche in Daten des ersten Beobachtungslaufes "O1" des Instruments Advanced LIGO. Wir haben keine Signale gefunden, aber unsere Obergrenzen sind die strengsten bisher gefundenen.

    Unsere Ergebnisveröffentlichung wird von zwei Publikationen begleitet, welche die innovativen Methoden beschreiben, die bei dieser Suche verwendet wurden. Ein adaptives Clustering-Verfahren für die Suche nach kontinuierlichen Gravitationswellen (engl. An adaptive clustering procedure for continuous gravitational wave searches) und Ein neues Veto-Verfahren für die Suche nach kontinuierlichen Gravitationswellen (engl. A new veto for continuous gravitational wave searches) sind ebenfalls auf arXiv verfügbar.

    Alle drei Publikationen wurden zur Begutachtung und Veröffentlichung bei Physical Review D eingereicht. Wir werden euch über den Fortschritt auf dem Laufenden halten.

    Im Auftrag von M. Alessandra Papa für das Einstein@Home-Team
    26.07.2017 8:43:21 MEZ

    Originaltext:
    Zitat Zitat von https://einsteinathome.org/content/three-new-einsteinhome-papers
    Three new Einstein@Home papers
    Three papers full of new Einstein@Home science are available now on the arXiv preprint server. First low-frequency Einstein@Home all-sky search for continuous gravitational waves in Advanced LIGO data describes our first results from a search in data from the first observation run “O1” of the Advanced LIGO instruments. We did not detect any signals, but our upper limits are the most stringent achieved to date.

    Our result paper is accompanied by two papers describing innovative methods used in the search. An adaptive clustering procedure for continuous gravitational wave searches and A new veto for continuous gravitational wave searches are available on the arXiv, too.

    All three papers have been submitted to Physical Review D for peer review and publication. We will keep you posted on the progress.

    On behalf of M. Alessandra Papa for the Einstein@Home team
    26 Jul 2017 7:43:21 UTC
    von Veröffentlicht: 22.07.2017 21:20
    1. Kategorien:
    2. Projekte

    Eine neue Version der EXACT-Anwendung erweitert die Entwicklung der Faltungs-Neuronennetzwerke um eine zweite Lage und sollte damit die Ergebnisse weiter verbessern. Außerdem wurden der Algorithmus und erste Ergebnisse wie angekündigt auf der Konferenz GECCO präsentiert und positiv aufgenommen.

    Neuer Anwendungstyp in Version 0.31 und eine Aktualisierung
    Ich habe die Anwendung aktualisiert und hoffe, dass uns das ermöglicht, noch bessere Ergebnisse zu erhalten. Derzeit haben wir 99,45% beim MNIST-Datensatz erreicht, was eigentlich recht gut ist, wenn man bedenkt, dass die aktuelle Version der Anwendung nur Faltungsoperationen und kein Pooling durchführt. Hier ist eine Liste einiger der besten veröffentlichten Ergebnisse zu diesem Datensatz:

    http://rodrigob.github.io/are_we_the...tml#4d4e495354

    Und das platziert uns ziemlich solide in der Mitte der Liste. Die neue Anwendung lässt EXACT nun auch CNNs durch Pooling-Operationen entwickeln, was uns hoffentlich weiter nach oben in der Liste bringt. Das ist sehr spannend, da wir die Strukturen der Faltungs-Neuronennetzwerke (engl. convolutional neural Networks, CNNs) von Grund auf entwickeln und mit einigen der besten von Menschen entworfenen CNNs konkurrenzfähig werden. Lasst mich jedenfalls wissen, falls ihr mit den neuen Anwendungen in Version 0.31 Fehler beobachtet.

    Darüber hinaus bin ich gerade von der diesjährigen Konferenz über genetische und evolutionäre Algorithmen (Genetic and Evolutionary Computation Conference, GECCO) in Berlin zurückgekehrt, wo ich ein Poster über diese Arbeit präsentiert habe. Es gab einiges Interesse an diesem Ansatz, es war also wirklich gut. Ich möchte allen nochmals dafür danken, dass ihr eure Rechenzeit zu dieser Arbeit beisteuert.
    Travis Desell am Samstag, den 22. Juli

    Originaltext:
    Zitat Zitat von https://csgrid.org/csg/
    [wildlife] new app/type version 0.31 and an update
    I've made an update to the application which I'm hoping will allow us to get even better results. Currently we've hit 99.45% on the MNIST dataset, which is actually quite good considering the current version of the application only performs convolutional operations and doesn't do any pooling. Here's a list of some of the best published results on this dataset:

    http://rodrigob.github.io/are_we_the...tml#4d4e495354

    And that puts is pretty solidly in the middle of the list. The new application now lets EXACT also evolve CNNs with pooling operations, which I'm hoping will bump us even higher up the list. This is pretty exciting as we're evolving the structure of the convolutional neural networks (CNNs) from scratch, and we're getting competitive with some of the best human designed CNNs. Anywho, let me know if you are having any errors with the new v0.31 applications.

    On another note, I just returned from this years Genetic and Evolutionary Computation Conference in Berlin, where I presented a poster on this work. There was quite a bit of interest in this approach so that was really good. I just want to thank everyone again for contributing all your cycles to this work.
    Travis Desell on Saturday, July 22nd
    von Veröffentlicht: 19.07.2017 21:40
    1. Kategorien:
    2. Projekte

    Seit einigen Tagen gab es keine neuen WUs, da die Berechnungen für die bisherige kryptographische Anwendung zumindest vorerst beendet wurden. Seit heute ist eine neue Anwendung verfügbar, welche sich mit einem Optimierungsproblem aus dem Bauingenieurswesen beschäftigt, wobei zunächst nur sehr wenige WUs ausgeliefert werden.

    Neue Anwendung
    Liebe Teilnehmer von VGTU project@Home,

    wir haben uns entschlossen, die Berechnungen mit der aktuellen Anwendung für dynamische visuelle Kryptographie auf Basis nichtlinearer Oszillationen einzustellen. Wir haben einige Ergebnisse erhalten und veröffentlicht. Jedoch brauchen wir neue Ideen, um voranzukommen.

    In der Zwischenzeit haben wir in Zusammenarbeit mit unseren Kollegen der VGTU-Abteilung für Informationstechnologien eine neue Anwendung entwickelt. Die neue Anwendung löst das Rostfundament-Optimierungsproblem mit parallelen globalen Optimierungsalgorithmen. Eine detailliertere Beschreibung gibt es hier (engl.).

    Wir danken euch für eure aktive Teilnahme und hoffen, dass ihr auch die neue Anwendung eurer Rechenzeit würdig befindet.

    Wir haben unser bestes getan, die Anwendung zu testen. Es könnten jedoch unentdeckte Probleme auftreten. Daher werden wir mit kleinen Arbeitsportionen beginnen.

    Mit freundlichen Grüßen,
    das Projekt-Team.
    19.07.2017, 18:25:31 MEZ

    Originaltext:
    Zitat Zitat von https://boinc.vgtu.lt/vtuathome/
    New application
    Dear VGTU project@Home users,

    We have decided to stop the computations with the current application for dynamic visual cryptography based on non-linear oscillations. Some results have been obtained and published. However, new ideas are needed to move forward.

    In the meantime, we have developed a new application in collaboration with our colleagues from the VGTU Department of Information Technologies. New application is solving the grillage optimization problem with parallel global optimization algorithms. More detailed description is here.

    We thank you for your active participation and hope that you will find the new application also worthy of your computer’s time.

    We have tried our best to test it. However, some undiscovered issues may appear. So, we will start with small portions of work.

    With best regards,
    The Project Team.
    19 Jul 2017, 17:25:31 UTC
    von Veröffentlicht: 19.07.2017 17:55
    1. Kategorien:
    2. Projekte

    Ein ausführlicher Beitrag fasst noch einmal alle Änderungen zusammen, die in nächster Zeit bei Sourcefinder durchgeführt werden:

    Die Zukunft von Sourcefinder
    Wie einige von euch noch aus meinem letzten Beitrag wissen, wird Sourcefinder in den nächsten Monaten einigen deutlichen Veränderungen unterzogen. Ich dachte, es wäre an der Zeit, genau auszuführen, was passiert.

    Die Einführung von SoFiA
    Ich arbeite derzeit daran, die Quellenfinder-Anwendung SoFiA in Sourcefinder zu integrieren. Um SoFiA sauber zu integrieren, arbeite ich an einer relativ wichtigen Überholung etlicher Systeme des Sourcefinder-Unterbaus, um die Unterstützung mehrerer Quellenfinder-Anwendungen zu ermöglichen. Mein Ziel ist es, das Hinzufügen neuer Quellenfinder-Anwendungen in Zukunft so einfach wie möglich zu machen. Wenn es euch interessiert, könnt ihr meine Änderungen im module_rework-Zweig unseres Git-Repositorys verfolgen.
    Ich werde sehr wahrscheinlich einige Test-WUs verschicken, während ich an der Integration von SoFiA arbeite, also werdet ihr möglicherweise außer der Reihe Arbeit erhalten, bis die Integration abgeschlossen ist.
    Sobald SoFiA korrekt funktioniert, werden wir alle WUs aus dem simulierten Würfel nochmals bearbeiten, diesmal mit SoFiA statt Duchamp.

    Publikation zum Vergleich von SoFiA und Duchamp
    Die Wissenschaftler, welche die Daten von diesem Projekt verwenden werden, planen das Schreiben einer Publikation zum Vergleich der Leistung von Duchamp und SoFiA als Quellenfindern. Nach dem, was mir erzählt wurde, wird die Datenauswertung dieses Projektes sehr wahrscheinlich entweder am Ende dieses Jahres oder am Ende nächsten Jahres von einem ICRAR-Stipendiaten durchgeführt.
    Ich werde sicherstellen, dass die Namen/Benutzernamen von so vielen Leuten wie möglich, die an Sourcefinder mitgewirkt haben, in der Publikation aufgelistet werden, bevor sie veröffentlicht wird.
    Ihr werdet in ein paar Monaten mehr über diese Publikation hören, sobald SoFiA sauber in Sourcefinder integriert ist.

    Echte Daten von ASKAP
    Wie ich im letzten Beitrag schrieb, sollten wir mit Sourcefinder in den kommenden Monaten echte Daten von ASKAP bearbeiten. Sobald ich diese Daten habe, werde ich WUs für Duchamp und später für SoFiA verschicken. Ich kann außer "bald" keinen Zeitraum nennen, wann diese Daten verfügbar sein werden, aber ich hoffe, dass das innerhalb weniger Monate geschehen wird.

    Visualisierung der Sourcefinder-Ergebnisse
    Ich plane die Entwicklung einer kleinen Webanwendung, die es wahrscheinlich auf http://www.theskynet.org jedem ermöglichen wird, die von Duchamp und SoFiA gefundenen Quellen anzuschauen. Meine aktuelle Idee für diese Minianwendung ist, ein Bild des Würfelquerschnitts anzuzeigen, in welchem die Quelle gefunden wurde, eine kleine Markierung der Quelle sowie eine Liste der Teilnehmer, die zum Fund der Quelle beigetragen haben.
    Ich werde mit der Arbeit an dieser Minianwendung beginnen, sobald SoFiA in Sourcefinder integriert ist.

    Workunits
    Alle bei dem Speicherproblem, von dem ich im letzten Beitrag sprach, verloren gegangenen WUs wurden nochmals bearbeitet (danke!). Das bedeutet, dass es für eine Weile keine signifikante Anzahl Sourcefinder-WUs geben wird. Ich versuche, diese Zeit so kurz wie möglich zu halten (hoffentlich höchstens einen oder zwei Monate), aber das hängt sehr davon ab, wie einfach es ist, SoFiA zu integrieren.

    Änderung der Projekt-URL
    Ich plane, die Projekt-URL irgendwann von https://sourcefinder.theskynet.org/duchamp in https://sourcefinder.theskynet.org/sourcefinder zu ändern. Der ursprüngliche Name 'duchamp' stammt noch aus der Zeit, bevor ich dieses Projekt übernommen habe. Ich dachte nicht, dass wir mehrere Anwendungen haben würden, deshalb beließ ich es dabei. Sobald SoFiA läuft, ist der 'duchamp'-Teil der URL offensichtlich nicht mehr sinnvoll, sodass ich das in das allgemeinere 'sourcefinder' ändern werde. Ich werde jedem eine Woche vorher Bescheid geben, damit ihr Zeit habt, einfach zu wechseln. Ich werde auch sicherstellen, dass die alte URL weiterhin funktioniert, aber einfach auf die neue weiterleitet.

    Ich denke, das ist alles für den Moment. Ich werde versuchen, euch in allen Punkten so gut wie möglich auf dem Laufenden halten.
    Danke nochmals für eure Hilfe bei Sourcefinder!
    19.07.2017, 1:14:08 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    The future of Sourcefinder
    As some of you will remember from my previous post, Sourcefinder is going to see some significant changes coming in the next few months. I thought it was time I properly outlined exactly what's happening.

    The introduction of SoFiA
    I'm currently working on integrating the SoFiA sourcefinding application in to Sourcefinder. In order to integrate SoFiA cleanly, I'm working on a fairly significant overhaul to a lot of the Sourcefinder backend systems that will allow support for multiple sourcefinding applications. My aim here is to make it as easy as possible to add new sourcefinding applications to the system in the future. If anyone is interested, you can see the changes I'm making in the module_rework branch of our git repository.
    I'll most probably be sending out quite a few test work units while working on integrating SoFiA, so you'll probably get odd spats of work until it's integrated properly.
    Once SoFiA is working correctly, we'll be processing all of the work units in the simulated cube again, but this time using SoFiA instead of duchamp.

    SoFiA vs Duchamp research paper
    The scientists who will be using the data from this project plan on writing a research paper comparing the performance of Duchamp and SoFiA as sourcefinders. From what I've been told, the data analysis side of this project is most likely to be performed by an ICRAR studentship student either at the end of this year or the end of next year.
    I plan on ensuring that as many people as possible who contributed to Sourcefinder will have their names/usernames listed in the research paper before it's published.
    You'll hear more about this paper in a few months once SoFiA is integrated properly in to Sourcefinder.

    Real data from ASKAP
    As I stated in the previous post, we should have some real data from ASKAP to process on Sourcefinder in the coming months. The moment this data becomes available to me, I'll be sending out work units for Duchamp, and later for SoFiA. I don't have a timeframe on when this data will be available aside from "soon", but I'm hoping we'll see it within a few months.

    Visualisation of Sourcefinder results
    I plan on developing a little web applet that will probably live on http://www.theskynet.org to allow anyone to view the sources found by Duchamp and SoFiA. My current plan for this applet is to display an image of the cube slice that the source was found in, a small highlight indicating the source, and a list of the users who contributed to finding the source.
    I'll be starting work on this applet after SoFiA is integrated in to Sourcefinder.

    Workunits
    The workunits that were lost in the back end storage issue that I spoke about in the last post has all been reprocessed (thank you!). This means there wont be a significant number of workunits for Sourcefinder for a little while. I'll try to make this period as short as possible (hopefully a month or two at most), but it really depends on how easy it is to integrate SoFiA.

    Project URL change
    At some point I plan on changing the project URL from https://sourcefinder.theskynet.org/duchamp to https://sourcefinder.theskynet.org/sourcefinder. The original name 'duchamp' was a carry over from before I event inherited this project. I didn't think we'd be running multiple applications, so I just left it. Obviously once SoFiA is working, the 'duchamp' part of the URL wont make much sense, so I'll be changing it to the more generic 'sourcefinder'. I'll give everyone a weeks notice before I change anything, so you should have time to change over easily. I'll also ensure the old URL still works, but simply re-directs to the new one.

    [...]

    I think that's about everything I have for now. I'll try to keep everyone as updated as possible on all of these issues.
    Thank you again for helping out with Sourcefinder!
    19 Jul 2017, 0:14:08 UTC
    von Veröffentlicht: 17.07.2017 19:55
    1. Kategorien:
    2. Projekte

    Nach den sehr eng beieinander liegenden Funden vom 9. und 10. Juli folgte am 15. noch ein dritter Treffer innerhalb von sieben Tagen:

    Noch eine GFN-131072-Megaprimzahl!
    Am 15. Juli 2017 um 22:04:54 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    46776558^131072+1

    Die Primzahl hat 1005326 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 24 für verallgemeinerte Fermat-Primzahlen und Platz 240 insgesamt.

    Die Entdeckung gelang Giles Averay-Jones (Dingo) aus Australien mit einer AMD Radeon 7700 in Verbund mit einem Intel Core i7-4771 @ 3,60 GHz mit 16 GB RAM unter Windows 10. Diese GPU brauchte etwa 41 Minuten für den PRP-Test mit GeneferOCL2. Giles ist Mitglied des Teams BOINC@AUSTRALIA.

    Die Primzahl wurde am 15. Juli 2017 um 23:10:39 MEZ von Dirk Sellsted (Dirk Sellsted) aus Kanada mit einer NVIDIA Geforce GTX 1080 Ti in Verbund mit einem AMD Ryzen 7 1800X mit 32 GB RAM unter Windows 10 bestätigt. Diese GPU brauchte etwa 6 Minuten für den PRP-Test mit GeneferOCL2.

    Die Primalität dieser PRP wurde mit einem Intel Core i7-3770 @ 3,40 GHz mit 16 GB RAM unter Windows 7 bewiesen. Dieser Rechner brauchte etwa 2 Stunden 45 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    17.07.2017 | 11:31:20 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/
    Yet Another GFN-131072 Mega Prime!
    On 15 July 2017, 21:04:54 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    46776558^131072+1

    The prime is 1,005,326 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 24th for Generalized Fermat primes and 240th overall.

    The discovery was made by Giles Averay-Jones (Dingo) of Australia using an AMD Radeon 7700 series GPU in an Intel(R) Core(TM) i7-4771 CPU at 3.60GHz with 16GB RAM, running Microsoft Windows 10 Core Edition. This GPU took about 41 minutes to probable prime (PRP) test with GeneferOCL2. Giles is a member of the BOINC@AUSTRALIA team.

    The prime was verified on 15 July 2017, 22:10:39 UTC by Dirk Sellsted (Dirk Sellsted) of Canada using an Nvidia Geforce GTX 1080 Ti GPU in an AMD Ryzen 7 1800X CPU with 32GB RAM, running Microsoft Windows 10 Core Edition. This GPU took about 6 minutes to probable prime (PRP) test with GeneferOCL2.

    The PRP was confirmed prime by an Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz with 16GB RAM, running Microsoft Windows 7 Ultimate Edition. This computer took about 2 hours 45 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    17 Jul 2017 | 10:31:20 UTC
    von Veröffentlicht: 16.07.2017 10:20
    1. Kategorien:
    2. Wow!-Event

    Es ist wieder soweit... SETI.Germany lädt zum sechsten SETI@Home-Wow!-Event ein.




    SETI.Germany lädt zum sechsten SETI@Home-Wow!-Event seiner Geschichte ein. Das SETI.Event findet vom 15. August 06:00 MESZ (= 04:00 UTC) bis 29. August 2017 06:00 MESZ (= 04:00 UTC), 40 Jahre nach Entdeckung des Wow!-Signals statt. SETI.Germany lädt alle Teams ein, bei dem Event mitzumachen. Dazu stehen 12 Gruppen zur Auswahl:

    Aries
    Aquarius
    Cancer
    Capricornus
    Gemini
    Leo
    Libra
    Pisces
    Sagittarius
    Scorpio
    Taurus
    Virgo

    Ihr könnt euch eine Gruppe aussuchen, bei der ihr mitrechnen wollt.

    In den nächsten Tagen gehen Einladungsmails an die Teamleader der verschiedenen Teams raus. Wir bitten Teammitglieder, die Zugriff auf andere Foren haben, dort Einladungsthreads zu erstellen. Unterstützung ist gerne gesehen.


    Nachfolgend erfahrt ihr Näheres über das Event:

    40 Jahre nach der Entdeckung des Wow!-Signals am 15. August 1977, welches aus Richtung des Sternbildes Schütze empfangen wurde, wird es Zeit die Mutter aller BOINC-Projekte gebührend zu ehren.

    SETI.Germany ruft daher vom 15. August 06:00 MESZ (= 04:00 UTC) bis 29. August 2017 06:00 MESZ (= 04:00 UTC) zum sechsten SETI@Home-Wow!-Event in seiner Geschichte auf.

    Nähere Infos über das Wow Signal findet ihr hier: https://www.seti-germany.de/Wow/53_d...w!-Signal.html und zum SETI Projekt auf https://www.seti-germany.de/Wow/42_d...SETI@Home.html.

    Die aktuelle BOINC-Software und -Anleitung zum Installieren von SETI gibt es auf der Homepage von SETI: http://setiathome.berkeley.edu/.

    Bunkern von Pendings vor Event-Start ist nicht nur erlaubt, sondern gern gesehen! Es soll mal wieder richtig viel für SETI@home gearbeitet werden und somit eine große Unterstützung erfolgen. Also scheut euch nur nicht, schon vor Event-Start mit allen zur Verfügung stehenden CPUs & GPUs bei SETI@home einzusteigen.

    Und wer weiß vielleicht seid gerade ihr es, die ein neues Wow!-Signal finden und damit nicht nur in die Geschichte des Grid-Computing eingehen werdet.

    Informationen rund um das Wow-Event, zum spannenden Event-Konzept und ein Anmeldeformular findet Ihr hier: https://www.seti-germany.de/Wow/anmeldung.php?&lang=de.


    SETI.Germany wünscht euch viel Spaß beim SETI@Home-Wow!-Event 2017.
    von Veröffentlicht: 14.07.2017 20:00
    1. Kategorien:
    2. Projekte

    Nach dreijähriger Pause findet im September wieder ein BOINC Workshop statt, diesmal in Paris. Einen groben Zeitplan gibt es hier (engl.).

    BOINC Workshop 2017
    Der BOINC Workshop 2017 wird vom 6.-8. September in Paris stattfinden. Jeder mit signifikanter Beteiligung an BOINC ist zur Teilnahme eingeladen. Danke an Marius Millea und das Institut d'Astrophysique de Paris für das Ausrichten sowie an Laurence Field und David Wallom für das Organisieren.
    14.07.2017, 18:31:11 MEZ

    Originaltext:
    Zitat Zitat von http://boinc.berkeley.edu/
    BOINC Workshop 2017
    The BOINC Workshop 2017 will be held 6-8 Sept in Paris. Everyone with a significant involvement in BOINC is welcome to attend. Thanks to Marius Millea and the Institut d'Astrophysique de Paris for hosting, and to Laurence Field and David Wallom for organizing.
    14 Jul 2017, 17:31:11 UTC
    von Veröffentlicht: 14.07.2017 18:10
    1. Kategorien:
    2. Projekte

    Es gibt ein Problem mit SixTrack auf einigen Rechnern mit Linux-Kernel 4.8.x, daher bekommen diese Rechner über das Wochenende keine neuen WUs, bis das Problem genauer eingegrenzt und behoben werden kann.

    Keine Ergebnisse von Linux-Kernel 4.8.* akzeptiert
    Als Notfallmaßnahme habe ich über das Wochenende für alle Rechner mit dem Linux-(Ubuntu?)Kernel 4.8.* max_results_day auf -1 gesetzt. SixTrack bricht ständig mit einem Formatted-I/O-Fehler zur IFORT-Laufzeit ab. Dadurch wird eine Verschwendung eurer wertvollen Beiträge vermieden. Eric.
    14.07.2017, 14:50:37 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    No RESULTS accepted from Linux Kernel 4.8.*
    As an emergency measure and over the weekend, I have set max_results_day to -1 for all hosts running Linux (Ubuntu?) Kernel 4.8.*. SixTrack is consistently crashing with an IFORT run time formatted I/O error. This will avoid wasting your valuable contributions. Eric.
    14 Jul 2017, 13:50:37 UTC

    Seite 51 von 108 Erste ... 41 49 50 51 52 53 61 101 ... Letzte
Single Sign On provided by vBSSO