• Projekte

    von Veröffentlicht: 28.09.2017 22:45
    1. Kategorien:
    2. Projekte

    Bis auf einige nochmals zu berechnende alte WUs wurde nun sämtliche Arbeit verschickt. Wie angekündigt wurde die Anmeldung neuer Benutzer abgeschaltet.

    Berechnungen sind fast komplett!
    Die WUs für die letzten COD-Einträge sind verschickt, aber wir müssen noch einige von den alten WUs (größtenteils für GPU) neu berechnen. Das wird weitere etwa 10 Stunden dauern.

    Accounterstellung ist deaktiviert.
    28.09.2017, 22:26:23 MEZ

    Originaltext:
    Zitat Zitat von https://xansons4cod.com/xansons4cod/
    Calculations are almost complete!
    WUs for the last COD entries are sent out, but we still have to recalculate some of the old WUs (mostly for the GPU). It will take another 10 hours or so.

    Account creation is disabled.
    28 Sep 2017, 21:26:23 UTC
    von Veröffentlicht: 27.09.2017 16:55
    1. Kategorien:
    2. Projekte

    Im Astrophysical Journal ist eine Veröffentlichung über den Ursprung ultraleuchtkräftiger Röntgenquellen (engl. Ultraluminous X-ray Source, ULX) erschienen, welche Ergebnisse von Universe@home verwendet.

    Forschungsarbeit über ULX endlich veröffentlicht!
    Einige Monate lang haben wir die Unmengen an Daten, die wir dank des Projektes erlangt haben, ausgewertet und endlich haben wir unsere Ergebnisse veröffentlicht. Ihr könnt den Artikel hier finden: https://arxiv.org/abs/1705.06155 (engl.).

    Dank der großen Datenmenge konnten wir zeigen, dass ULX tatsächlich eine kurze Phase extremer Akkretion in Röntgen-Doppelsternen (engl. X-Ray Binary, XRB) sein könnten und keine exotischen Objekte. Daneben haben wir gefunden, dass eine nicht-monotone Beziehung zwischen der Zahl der ULX in einer Galaxie und der durchschnittlichen Metallizität (d.h. der Anteil schwerer Ionen in den Sternen) existiert, welche nützlich sein könnte, um zusätzliche Informationen über Sternpopulationen zu erhalten.

    Wir planen weitere Forschung auf diesem Gebiet!
    26.09,2017, 23:07:58 MEZ

    Originaltest:
    Zitat Zitat von https://universeathome.pl/universe/
    Research on ULXs finally published!
    For a few month we were analyzing a vast amount of data we acquired thanks to the project and finally we published our results. You can find the article here (https://arxiv.org/abs/1705.06155).

    Thanks to a large amount of data, we were able to show that ULXs might indeed be a very short phase of extreme accretion in XRBs and not any exotic objects. Our side-result showed that a non-monotonic relation exist between the number of ULXs in a galaxy and the average metallicity (i.e. fraction of heavy ions in stars), which may be useful for obtaining additional information about stellar populations.

    We plan to make further research in this field!
    26 Sep 2017, 22:07:58 UTC
    von Veröffentlicht: 27.09.2017 16:25
    1. Kategorien:
    2. Projekte

    Auch in dieser Woche wurden noch weitere Probleme korrigiert und Erweiterungen vorgenommen, allerdings gibt es derzeit Berichte, dass die allwöchentlichen Test-WUs nicht korrekt heruntergeladen werden können.

    Neuigkeiten zum SoFiA-Betatest, Teil 4
    Ein weiterer Fehler im Assimilator wurde behoben.

    Die Art, wie SoFiA die Ausgabedateien zurückgibt, wurde verändert. Es gab ein Problem mit einigen Parameterkombinationen, die zu unterschiedlich formatierten Ausgaben von SoFiA führten. Das sollte nun korrekt behandelt werden.

    Ein neuer, erweiterter Parametersatz für das Testen von SoFiA wurde aufgebaut. Wir testen nun etwa 100 verschiedene Kombinationen.

    Neue WUs mit dem erweiterten Parametersatz wurden herausgegeben.
    27.09.2017, 8:17:38 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA Beta Update 4
    Fix yet another bug in the assimilator.

    Modified the way SoFiA returns output files. There was an issue with various parameter combinations causing SoFiA to return outputs in different formats. This should be accounted for properly now.

    Built a new, extended parameter set for SoFiA testing. We're now testing about 100 different combinations.

    Pushed out new work units using the extended parameter set.
    27 Sep 2017, 7:17:38 UTC
    von Veröffentlicht: 26.09.2017 18:40
    1. Kategorien:
    2. Projekte

    Wer am Subprojekt CMS Simulation teilnimmt, sollte zeitnah alle Aufgaben fertigrechnen und keine neuen mehr annehmen, da am morgigen Mittwoch, den 27. September, während einer Wartungspause den laufenden vbox-WUs keine Arbeit zugeteilt werden kann.

    Keine CMS-Aufgaben verfügbar am Mittwoch, den 27. September
    Eine Aktualisierung des CMS@Home-Workflow-Management-Systems (WMAgent) ist für morgen (Mittwoch, 27. September) geplant. Dafür muss der aktuelle Aufgabenstapel angehalten werden, damit die Warteschleife leer ist. Ich plane, das gegen 9:00-10:00 MESZ am Mittwoch zu tun.
    Um Abbrüche mit "Berechnungsfehler" und die resultierende Zurücksetzung eures Tageskontingents zu vermeiden, empfehlen wir, dass ihr auf allen für CMS benutzten Rechnern mindestens 12 Stunden vorher keine neue Arbeit mehr zulasst, damit die aktuellen Aufgaben normal zu Ende gerechnet werden können. Ihr könnt BOINC anhalten, wenn all eure Aufgaben beendet sind, wenn ihr wollt.
    Wie lange die Unterbrechung genau dauern wird, ist unklar, und es wird eine Verzögerung von bis zu einer Stunde geben, bis danach ein neuer Aufgabenstapel aufgebaut ist. Ich werde hier schreiben, wenn es wieder Aufgaben gibt, hoffentlich vor Ende des Tages nach europäischer Zeit.
    26.09.2017, 13:23:21 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    CMS jobs unavailable Weds 27th September
    An upgrade to the CMS@Home workflow management system (WMAgent) is planned for tomorrow (Wed Sep 27th). This needs the current batch of jobs to be stopped so that the queue is empty. I plan to do this about 0700-0800 UTC on Wednesday.
    To avoid "error while computing" task failures and the resulting back-off of your daily quotas, we suggest you set all your CMS machines to No New Tasks at least 12 hours beforehand to allow current tasks to time out in the normal way. You can stop BOINC once all your tasks are finished, if you wish.
    Exactly how long the intervention will take is unclear, and there will be a delay of up to an hour to get a new batch of jobs queued afterwards. I will post here when jobs are available again, hopefully before the end of the day European time.
    26 Sep 2017, 12:23:21 UTC
    von Veröffentlicht: 26.09.2017 17:10
    1. Kategorien:
    2. Projekte

    Die in den letzten drei Monaten neu in die Kristallographie-Datenbank COD eingetragenen Kristallstrukturen werden nun auch vom Projekt bearbeitet, sodass es noch ungefähr einen halben Tag länger neue WUs geben wird:

    Neue Strukturen zur Bearbeitungsliste hinzugefügt
    Die Bearbeitungsliste der COD-Einträge wurde um 5350 neue Strukturen ergänzt, die seit dem Neubeginn des Projektes (18. Juni) zu COD hinzugefügt wurden.
    26.09.2017, 10:45:40 MEZ

    Originaltext:
    Zitat Zitat von https://xansons4cod.com/xansons4cod/
    New structures added to the processing list
    Updated the processing list of COD IDs with 5350 new structures added to COD since project restart (June 18th).
    26 Sep 2017, 9:45:40 UTC
    von Veröffentlicht: 26.09.2017 16:50
    1. Kategorien:
    2. Projekte

    Die Suche nach symmetrischen Primzahltupeln kleiner als 2^64 erreicht bald das Zwischenziel 10^18, also knapp 10% des gesamten Suchbereichs. Außerdem ist für Ende des Monats ein Serverumzug geplant.

    Wir nähern uns 10^18!
    Ergebnisse:
    http://stop.inferia.ru/result/600.zip
    http://stop.inferia.ru/result/700.zip
    http://stop.inferia.ru/result/800.zip
    Danke für alles!

    PS: Wir werden das Projekt am 30.09.2017 in eine VM in der Google-Cloud umziehen.
    25.09.2017, 11:03:12 MEZ

    Originaltext:
    Zitat Zitat von http://stop.inferia.ru/
    We are near 1^18 !
    Results:
    http://stop.inferia.ru/result/600.zip
    http://stop.inferia.ru/result/700.zip
    http://stop.inferia.ru/result/800.zip
    Thanks for all !

    Ps. We will move project to Google Cloud Platform VM at 30 Sep 2017.
    25 Sep 2017, 10:03:12 UTC
    von Veröffentlicht: 26.09.2017 16:30
    1. Kategorien:
    2. Projekte

    Nach nicht ganz sechs Wochen wurde das Ziel des Subprojektes Nontrivial Collatz Cycle erreicht.

    Collatz: Suche beendet
    Nach weniger als anderthalb Monaten (14. August bis 23. September) konnten wir unser Suchprojekt erfolgreich abschließen:
    • Wir haben alle kleineren Pfadrekord und alle Startwerte <2^60 mit Maximalwert größer als 2*10^16*Startwert (nur solche Zahlen waren als Kandidaten gegeben), die von anderen Personen gefunden wurden (vor allem von Tomas Olivera e Silva und Eric Roosendaal), gefunden; und somit unseren Ansatz in die andere Richtung bestätigt.
    • Wir haben vier neue Pfadrekorde gefunden und konnten beweisen, dass die Folge für alle Startwerte <87 * 2^60 (insbesondere auch alle <10^20) 1 erreicht und in den trivialen Zyklus übergeht.
    • Somit haben wir auch gezeigt, dass ein nicht-trivialer Zyklus aus mindestens 17 Milliarden Folgengliedern bestehen muss

    23.09.2017

    Originaltext:
    Zitat Zitat von https://www.rechenkraft.net/yoyo/
    Collatz: Search finished
    After less than one and a half months (14 August to 23 September), we were able to successfully complete our search project:
    • We have found all the smaller path records as well as all starting numbers <2^60, whose maximum > 2 * 10^16 * starting number (only such numbers are given as candidates) which were found by other persons (mainly Tomas Olivera e Silva and Eric Roosendaal); and thus validate our approach in the opposite direction.
    • We have found 4 new path records and have been able to prove that all starting numbers <87 * 2^60 (in particular also all <10^20) land at 1 and pass into the trivial cycle.
    • Thus, we have also shown that a non-trivial cycle must consist of more than 17 billion sequence members

    23 Sept 2017
    von Veröffentlicht: 23.09.2017 18:25
    1. Kategorien:
    2. Projekte

    Nachdem PrimeGrid bisher kostenlos Cloud-Server nutzen durfte, endet dieses Angebot nun leider und das Projekt muss wieder auf eigene Server umziehen. Zur Kostendeckung läuft derzeit eine Spendensammlung:

    Wir brauchen eure Hilfe!
    In der Vergangenheit waren Spenden schön, aber nicht wichtig für den Betrieb. Wie ihr vielleicht schon wisst, beendet RackSpace unsere kostenlose Unterbringung. Während alle PrimeGrid-Administratoren ihren Aufwand, ihre Ausrüstung und ihren Strom als Freiwillige ausüben, genau wie es alle Teilnehmer tun, muss PrimeGrid ein Zuhause finden und bezahlen können.

    Beim Auswählen des zukünftigen Weges haben wir sowohl unmittelbare als auch laufende Kosten berücksichtigt sowie die Beibehaltung der Servicequalität auf dem Niveau, an das wir uns gewöhnt haben. Die beste Option für PrimeGrid ist demnach, Server zu kaufen und diese gegen Bezahlung in einem Rechenzentrum unterzubringen.

    Für die Zukunft muss PrimeGrid die 3500€ Kosten für den Hardwarekauf aufbringen und dann beginnen, die Kosten für die Unterbringung zu decken. Darüber hinaus müssen wir auch die begrenzte Lebensdauer der Hardware einplanen. Wir sind sehr dankbar für die bereits für diese Zwecke erhaltenen Spenden und ihr könnt hier den Fortschritt sehen: https://www.primegrid.com/donations.php, wo auch unmittelbar erkennbar wird, dass wir noch einiges vor uns haben.

    Eure Beiträge sind sehr geschätzt und werden helfen, PrimeGrid für die kommenden Jahre stark und lebensfähig zu halten. Wir haben hier eine Menge großartiger Arbeit geleistet und hoffen, eine erfolgreiche Zukunft sicherzustellen.
    15.09.2017 | 21:40:28 MEZ


    Außerdem gibt es zwei Megaprimzahlfunde zu vermelden, zunächst eine Proth-Megaprimzahl mit einem Doublechecker aus den Reihen von SETI.Germany:

    Weitere PPS-Megaprimzahl!
    Am 15. September 2017 um 12:01:15 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:
    1127*2^3427219+1

    Die Primzahl hat 1031699 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 203 insgesamt.

    Die Entdeckung gelang Randall Scalise (Randall J. Scalise) aus den Vereinigten Staaten mit einem Intel Core i5-4590 @ 3,30 GHz mit 6 GB RAM unter Linux. Dieser Rechner brauchte etwa 1 Stunde 13 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 15. September 2017 um 23:09:16 MEZ von Hans-Jürgen Bergelt (Hans-Jürgen Bergelt) aus Deutschland mit einem Intel Core i7-3960X @ 3,30 GHz mit 8 GB RAM unter Windows 7 bestätigt. Dieser Rechner brauchte etwa 1 Stunde 49 Minuten für den Primalitätstest mit LLR. Hans-Jürgen ist Mitglied des Teams SETI.Germany.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    16.09.2017 | 11:23:50 MEZ


    Sowie eine verallgemeinerte Fermat-Megaprimzahl:

    GFN-131072-Megaprimzahl!
    Am 15. September 2017 um 00:21:44 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    47179704^131072+1

    Die Primzahl hat 1005815 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 26 für verallgemeinerte Fermat-Primzahlen und Platz 250 insgesamt.

    Die Entdeckung gelang Andrei Okhrimouk (AndreiO) aus Australien mit einer NVIDIA Geforce GTX 960 in Verbund mit einem Intel Core2 Duo @ 2,80 GHz mit 4 GB RAM unter Windows 10. Diese GPU brauchte etwa 21 Minuten für den PRP-Test mit GeneferOCL2.

    Die Primalität dieser PRP wurde mit einem Intel Core i7-3770 @ 3,40 GHz mit 16 GB RAM unter Windows 7 bewiesen. Dieser Rechner brauchte etwa 2 Stunden 42 Minuten für den Primalitätstest mit LLR im Multithread-Modus.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    23.09.2017 | 13:28:55 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    We Need Your Help!
    In the past, donations were nice to have, but not critical to our operation. As you likely already know, RackSpace is ending our free hosting. While all of the PrimeGrid admins volunteer their effort, equipment, and electricity, as do all of its members, PrimeGrid needs to find and afford a home.

    In choosing a path forward, we have considered both current and ongoing costs, as well as maintaining quality of service at the levels to which we've become accustomed. In doing so, the best option for PrimeGrid is to purchase servers and house them at a paid colocation service.

    Moving forward, PrimeGrid needs to cover the 3,500 euro cost of the initial hardware purchase, and then needs to start covering the costs of colocation. Ultimately, we will need to plan for hardware lifecycle as well. We are quite appreciative of the donations we have received towards this effort, and you can see our progress here: https://www.primegrid.com/donations.php where it quickly becomes evident that we still have a ways to go.

    Your contributions are greatly appreciated and will help keep PrimeGrid strong and viable in the years ahead. We have done a lot of great work here, and hope to ensure its continued success.
    15 Sep 2017 | 20:40:28 UTC
    Zitat Zitat von https://www.primegrid.com/
    Another PPS-Mega Prime!
    On 15 September 2017, 11:01:15 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:
    1127*2^3427219+1

    The prime is 1,031,699 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 203rd overall.

    The discovery was made by Randall Scalise (Randall J. Scalise) of the United States using an Intel(R) Core(TM) i5-4590 CPU @ 3.30GHz with 6GB RAM, running Linux. This computer took about 1 hour 13 minutes to complete the primality test using LLR.

    The prime was verified on 15 September 2017, 22:09:16 UTC by Hans-Jürgen Bergelt (Hans-Jürgen Bergelt) of Germany using an Intel(R) Core(TM) i7-3960X CPU @ 3.30GHz with 8GB RAM, running Microsoft Windows 7. This computer took about 1 hour 49 minutes to complete the primality test using LLR. Hans-Jürgen is a member of the SETI.Germany team.

    For more details, please see the official announcement.
    16 Sep 2017 | 10:23:50 UTC
    Zitat Zitat von https://www.primegrid.com/
    GFN-131072 Mega Prime!
    On 14 September 2017, 23:21:44 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    47179704^131072+1

    The prime is 1,005,815 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 26th for Generalized Fermat primes and 250th overall.

    The discovery was made by Andrei Okhrimouk (AndreiO) of Australia using an NVIDIA Geforce GTX 960 series GPU in an Intel(R) Core(TM)2 Dup CPU at 2.80GHz with 4GB RAM, running Microsoft Windows 10 Professional Edition. This GPU took about 21 minutes to probable prime (PRP) test with GeneferOCL2.

    The PRP was confirmed prime by an Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz with 16GB RAM, running Microsoft Windows 7 Ultimate Edition. This computer took about 2 hours 42 minutes to complete the primality test using multithreaded LLR.

    For more details, please see the official announcement.
    23 Sep 2017 | 12:28:55 UTC
    von Veröffentlicht: 22.09.2017 21:40
    1. Kategorien:
    2. Projekte

    Eine Aussage zur aktuellen Situation des Servers:

    Server überlastet
    In den letzten 9 Stunden hat sich die Auslastung der Festplatte um ein Vielfaches erhöht. Das führte zu weniger generierten WUs und dem Problem mit der Validierung. Bitte seht wenn möglich davon ab, eure Aufgaben anzuschauen. Das Anschauen der Aufgabendatenbank führt zu hoher Festplattenbelastung. Danke für euer Verständnis!

    Aktualisierung Die Anzeige der Aufgaben wurde temporär deaktiviert.

    Aktualisierung 2 Die Lage begann sich unmittelbar nach dem Abschalten der Aufgabenanzeige zu normalisieren.

    Aktualisierung 3 Die Aufgabenanzeige ist wieder aktiviert. Diese Funktion wird jedoch bei hoher Festplattenauslastung wieder deaktiviert.
    22.09.2017, 21:25:36 MEZ

    Originaltext:
    Zitat Zitat von https://xansons4cod.com/xansons4cod/
    Sever overload
    Over the past 9 hours, the load on the disk has increased manyfold. This resulted in a decrease of the generated WUs and the problem with the validation. Please, refrain from viewing your results if possible. Viewing the results database leads to a heavy disk load. Thank you for understanding!

    Update Showing the results is temporarily disabled.

    Update 2 Things started getting back to normal immediately after showing the results was disabled.

    Update 3 Showing the results is enabled again. However, this feature will be disabled in case of high disk load.
    22 Sep 2017, 20:25:36 UTC
    von Veröffentlicht: 20.09.2017 07:15
    1. Kategorien:
    2. Projekte

    Nur noch kleinere Probleme mussten ausgebügelt werden, die gerade in Verteilung befindliche WU-Serie wird wohl die letzte des SoFiA-Betatests sein, bevor der Produktivbetrieb mit dieser Anwendung beginnen kann.

    Neuigkeiten zum SoFiA-Betatest, Teil 3
    Ein paar Fehler im Assimilator wurden korrigiert.
    Die Aufzeichnung der Validator-Meldungen wurde verbessert.

    Von den 1736 WUs, die beim letzten Mal verschickt wurden, habe ich für 1723 Ergebnisse auf unserem Cloud-Speicher. Das ist eine Erfolgsrate von 99%!

    Es gab allerdings ein paar Probleme mit dem Assilimator, die verhindert haben, dass die Ergebnisse korrekt in unserer Datenbank gespeichert wurden. Wir speichern sowohl die gefundenen Quellen in unserer Datenbank als auch die von den Clients zurückgemeldeten Rohdateien auf einem Cloud-Speicher.

    Hoffentlich wird dies die letzte Woche des SoFiA-Betatests sein und wir können dann mit produktiven Berechnungen beginnen!

    Edit: Ich habe SoFiA auch in die Projektbeschreibung auf der Startseite eingebaut.
    20.09.2017, 2:26:26 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA Beta Update 3
    Fixed a few bugs in the assimilator.
    Improved logging in the validator.

    Out of the 1736 work units sent out in the last update, I have the results for 1723 of them stored in our cloud storage system. That's a 99% success rating!

    There were a couple of issues with the assimilator that were preventing the results from being properly stored in our database though. We store sources found in our database as well as storing the raw files returned by a client in cloud storage.

    Hopefully this will be the last week of the SoFiA beta, and then we can proceed in to full processing mode!

    Edit: I've also updated the project description that appears on the main page to include SoFiA.
    20 Sep 2017, 1:26:26 UTC
    Seite 51 von 84 Erste ... 41 49 50 51 52 53 61 ... Letzte
Single Sign On provided by vBSSO