• Projekte

    von Veröffentlicht: 17.03.2018 21:00
    1. Kategorien:
    2. Projekte

    Am vergangenen Mittwoch war ein großer Meilenstein des Projektes zu vermelden, das 2011 als Test4Theory begann und nach mehreren Umbenennungen schließlich als Subprojekt Theory Simulation im konsolidierten Projekt LHC@home aufging:

    Theory Simulation erreicht heute 4 Billionen Ereignisse!!
    Das LHC@home-Subprojekt Theory Simulation hat heute den Meilenstein von 4 BILLIONEN simulierten Ereignissen erreicht. Dieses Projekt begann unter seinem früheren Namen "Test4Theory" im Jahr 2011 den Produktivbetrieb und war das erste BOINC-Projekt, das auf Virtuelle Maschinen setzte (basierend auf dem CernVM-System des CERN).

    Wir werden in den kommenden Tagen einige weitere Einzelheiten für euch auf den LHC@home- und CERN-Internetseiten veröffentlichen. Hier ist eine erste Mitteilung:

    http://lhcathome.web.cern.ch/article...rillion-events

    Vielen Dank an all unsere Freiwilligen für das Ermöglichen dieser Leistung!
    14.03.2018, 6:37:23 MEZ


    Im folgenden sei auch die verlinkte Mitteilung übersetzt:

    Test4Theory überschreitet 4 Billionen Ereignisse
    Das LHC@home-Subprojekt Theory Simulation hat heute den Meilenstein von 4 BILLIONEN simulierten Ereignissen erreicht. Dieses Projekt begann unter seinem früheren Namen "Test4Theory" im Jahr 2011 den Produktivbetrieb und war das erste BOINC-Projekt, das auf Virtuelle Maschinen setzte (basierend auf dem CernVM-System des CERN). Das folgende Foto, das am CERN-Rechenzentrum aufgenommen wurde, zeigt einige der zurzeit am Projekt beteiligten Leute:


    Von links nach rechts: Nikolas Giannakis (CERN), Nils Høimyr (CERN), Laurence Field (CERN), Anton Karneyeu (CERN & INR Moskau), Ben Segal (CERN), Peter Skands (Monash University)

    Peter Skands: Test4Theory ist eine tolle Illustration der unvergleichlichen Arten von Projekten, die an einem Ort wie dem CERN spontan passieren können. Im Jahr 2010 war ich gerade als neuer Mitarbeiter in der Theorieabteilung des CERN angekommen. Meine Forschung betrifft "virtuelle Collider" - im Wesentlichen Computersimulationen der Physik in Collidern wie dem Large Hadron Collider. Ein Kollege stellte mich Ben Segal (ebenfalls auf dem Foto) vor, der ein kleines Entwicklungsteam vertrat, das nach wissenschaftlichen Anwendungszwecken zum Test eines neuen Konzeptes suchte: Volunteer Computing auf Basis von Virtuellen Maschinen. Das passte mir bestens. Als kleine Theoretiker-Gruppe hatten wir keinen Zugruff auf die gleiche Art von großen Rechenressourcen, derer sich unsere Experimentatoren-Kollegen rühmen können, sodass Großversuche und Bestätigungen der Art, wie wir sie jetzt über Test4Theory durchführen können, zu jener Zeit unvorstellbar waren. Ich hatte vorher nicht über Volunteer Computing nachgedacht, da die Arten von wissenschaftlicher Software, die wir schreiben, nahezu ausschließlich auf Linux-Systemen entwickelt werden und laufen, wohingegen die meisten Freiwilligen Windows- oder Mac-Systeme hätten. Bens Vorschlag, unsere Simulationen in einer virtuellen Linux-Maschine einzukapseln, welche dann auf jedem System ausgeführt werden könnte, schien äußerst elegant. Wir begannen sofort mit der Zusammenarbeit und es ging wirklich voran, als Anton Karneyeu (auch auf dem Foto) zum Projekt stieß. Alpha-Tests begannen Ende 2010 und ein halbes Jahr später funktionierte das System reibungslos und kontinuierlich mit etwa 100 angeschlossenen Rechnern aus der ganzen Welt. Etwa 5 Milliarden Collider-Ereignisse wurden während dieser Testphase erzeugt. Dann begann der Beta-Test mit dem Schwerpunkt der Skalierbarkeit des Systems und erhöhte die Gesamtzahl der angeschlossenen Rechner bis 2012 auf mehrere Tausend. Seitdem ist das System gereift und weiter gewachsen, was uns erlaubt, mehr Vergleiche zwischen Theorie und Daten anzustellen. Diese Vergleiche sind das Herzstück des Projektes und die Ergebnisse sind offen verfügbar auf der Internetseite mcplots.cern.ch, welche von einem breiten Spektrum von Theoretikern und Experimentatoren als eine Datenbank von Validierungen der Simulationen gegen reale Daten benutzt wird. Obwohl ich nun an der Monash University (in Melbourne, Australien) arbeite, bin ich weiterhin aktiv an Test4Theory beteiligt und mcplots bleibt die Anlaufstelle, um einen umfassenden Überblick zu erhalten, wie gut verschiedene Arten von physikalischen Modellen, verschiedene Stufen von Näherungen und verschiedene Parametereinstellungen mit der Vielzahl von Vergleichsmessungen übereinstimmen, die nicht nur am LHC, sondern auch in vielen älteren Collider-Experimenten durchgeführt wurden. Wir stehen tief in der Schuld sowohl der Freiwilligen, die das ermöglichen, als auch der Softwareentwicklungs- und IT-Teams am CERN, die geholfen haben, die Projektidee in die Realität umzusetzen.

    Ben Segal: Ich habe im Jahr 2004 die Erschaffung des ersten BOINC-Projektes am CERN, LHC@home/Sixtrack, geleitet. Seit 2008 habe ich das BOINC/CernVM-System koordiniert, welches erlaubt, CERN-Physikanwendungen auf LHC@home auszuführen, beginnend mit dem Test4Theory-Projekt im Jahr 2011 und später die ATLAS-, CMS- und LHCb-Experimente. Ich möchte in Erinnerung rufen, dass ein großer Teil der Arbeit zur Schaffung von LHC@home seit 2004 von Freiwilligen geleistet wurde, im Geiste von BOINC selbst - entweder von "Rentnern" wie mir selbst und Eric McIntosh oder von CERN-Personal in "Überstunden" oder von einigen Dutzend Studenten, Fellows und Besuchern, die im Laufe der Jahre zum Projekt beigetragen haben.

    Anton Karneyeu ist im Jahr 2010 zum MCPLOTS-Projekt gestoßen, um Ordnung ins Chaos verschiedener Hochenergiephysik-Simulationsprogrammcodes zu bringen. Er entwickelte Werkzeuge, um diese Programmcodes über Test4Theory auszuführen, und eine Web-Schnittstelle zum Durchsuchen der Ergebnisse.

    Laurence Field: Mit großer Grid-Computing-Erfahrung hat Laurence den CMS-Piloten bei LHC@home gestartet und ist später im Jahr 2016 zum LHC@home-Kernteam gestoßen, um das Tagesgeschäft des Volunteer-Computing-Dienstes zu entwickeln und zu unterstützen. Er entwickelte eine nachhaltige Plattform für VM-Anwendungen und verwaltete die Dienst-Konsolidierung mit BOINC und HTCondor.

    Nils Høimyr: Ich engagiere mich seit 2011 bei LHC@home, als ich gebeten wurde, die Infrastruktur für Test4Theory und LHC@home in meiner Abteilung unterzubringen. Dank der harten Arbeit eines enthusiastischen Teams hat Test4Theory erfolgreich Virtualisierung für Volunteer Computing eingesetzt. LHC@home führte seit 2004 das Beschleunigerphysik-Subprojekt Sixtrack durch und konnte nun auch weitere physikalische Anwendungen, welche in CernVM laufen, aufnehmen. Wir haben auch die LHC-Experimente an Bord geholt und die Herausforderungen und Möglichkeiten, die Volunteer Computing bietet, haben mich dazu gebracht, die Rolle des LHC@home-Projektleiters zu übernehmen. Dank der Bemühungen von Freiwilligen kann die wissenschaftliche Gemeinschaft am CERN nun viel mehr Simulationen durchführen als sie mit unseren lokalen Rechenzentren möglich gewesen wären, welche sich vollständig der Auswertung von LHC-Daten widmen. Es ist ein Vergnügen, mit den Wissenschaftlern zusammenzuarbeiten, welche die Simulationen bereitstellen, und auch mit anderen Volunteer-Computing-Projekten auf der BOINC-Plattform zusammenzuarbeiten. Wir möchten all den Freiwilligen, die zu LHC@home beitragen, herzlich danken, insbesondere denen, die uns bei der Fehlerbeseitigung und dem Beta-Test von Anwendungen helfen.

    Nikolas Giannakis: Ich bin im Jahr 2017 als Doktorand zum LHC@home-Team gestoßen, meine Entwicklungen beinhalten einen Prototypen eines WebRTC-Clients für BOINC. Die Möglichkeit, für ein Projekt wie LHC@home zu arbeiten, hat mir eine Vorstellung gegeben, worum es bei Computerwissenschaften gehen sollte. Es sollte um Kooperation, Großzügigkeit und das Streben nach Größe gehen. In dem großartigen Laboratorium, welches das CERN ist, wurde dieses Projekt erschaffen, um das Sprichwort, dass die Reise wichtiger ist als das Ziel, mit Bedeutung zu füllen. Das vierbillionste Ereignis, das für Test4Theory berechnet wurde, ist ein Paradebeispiel. Das Berechnen dieser Ereignisse hat Leute aus sehr verschiedenen Teams zusammengebracht und insbesondere Leuten mit einer Leidenschaft für Wissenschaft eine Möglichkeit gegeben, zum größten jemals durchgeführten Experiment beizutragen.

    14. März 2018

    Originaltexte:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    Theory application reaches 4 TRILLION events today !!
    LHC@home's Theory application today passed the milestone of 4 TRILLION simulated events. This project, under its earlier name "Test4Theory", began production in 2011 and was the first BOINC project to use Virtual Machine technology (based on CERN's CernVM system).

    We will be publishing some more details for you on the LHC@home and CERN websites over the coming days. Here is a first release:

    http://lhcathome.web.cern.ch/article...rillion-events

    Many thanks to all our volunteers for enabling this achievement !
    14 Mar 2018, 5:37:23 UTC
    http://lhcathome.web.cern.ch/article...rillion-events
    von Veröffentlicht: 17.03.2018 17:05
    1. Kategorien:
    2. Projekte

    Nach knapp zwei Monaten ist Scott Brown den Weltrekord für verallgemeinerte Cullen-Primzahlen wieder los, allerdings haben ihm nur gut 9 Stunden gefehlt, um sich selbst zu übertreffen. Der Fund der ersten bekannten verallgemeinerten Cullen-Primzahl zur Basis b=41 schließt die Arbeit an dieser Basis ab.

    Weiterer Weltrekord für verallgemeinerte Cullen-Primzahlen!
    Am 12. März 2018 um 0:54:40 MEZ, hat PrimeGrids Generalized Cullen/Woodall Prime Search die größte bekannte verallgemeinerte Cullen-Primzahl gefunden:

    1806676*41^1806676+1

    Verallgemeinerte Cullen-Zahlen haben die Form n*b^n+1. Verallgemeinerte Cullen-Zahlen, die prim sind, werden verallgemeinerte Cullen-Primzahlen genannt. Für weitere Informationen siehe bitte "Cullen prime" im Primzahl-Glossar (engl.).

    Die Primzahl hat 2913785 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 1 für verallgemeinerte Cullen-Primzahlen und Platz 27 insgesamt.

    Die Basis 41 war eine von zwölf Basen bis b=121 ohne bekannte verallgemeinerte Cullen-Primzahl, die von PrimeGrid untersucht werden. Die verbleibenden Basen sind 13, 25, 29, 47, 49, 55, 69, 73, 101, 109 und 121.

    Die Entdeckung gelang Hiroyuki Okazaki (zunewantan) aus Japan mit einem Intel Xeon E5-2670 @ 2,60 GHz mit 4 GB RAM unter Linux. Dieser Rechner brauchte etwa 7 Stunden 13 Minuten für den Primalitätstest mit LLR im Multithread-Modus. Hiroyuki ist Mitglied des Teams Aggie The Pew.

    Die Primzahl wurde am 12. März 2018 um 10:07:23 MEZ von Scott Brown (Scott Brown) aus den Vereinigten Staaten mit einer Intel-CPU @ 2,30 GHz mit 16 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 15 Stunden 22 Minuten für den Primalitätstest mit LLR. Auch Scott ist Mitglied des Teams Aggie The Pew.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    17.03.2018 | 16:44:44 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/
    Another World Record Generalized Cullen Prime!
    On 11 March 2018, 23:54:40 UTC, PrimeGrid’s Generalized Cullen/Woodall Prime Search found the largest known Generalized Cullen prime:

    1806676*41^1806676+1

    Generalized Cullen numbers are of the form: n*b^n+1. Generalized Cullen numbers that are prime are called Generalized Cullen primes. For more information, please see “Cullen prime” in The Prime Glossary.

    The prime is 2,913,785 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 1st for Generalized Cullen primes and 27th overall.

    Base 41 was one of 12 prime-less Generalized Cullen bases below b=121 that PrimeGrid is searching. The remaining bases are 13, 25, 29, 47, 49, 55, 69, 73, 101, 109 & 121.

    The discovery was made by Hiroyuki Okazaki (zunewantan) of Japan using an Intel(R) Xeon(R) E5-2670 CPU @ 2.60GHz with 4GB RAM, running Linux. This computer took about 7 hours and 13 minutes to complete the primality test using multithreaded LLR. Hiroyuki is a member of the Aggie The Pew team.

    The prime was verified on 12 March 2018 09:07:23 UTC by Scott Brown (Scott Brown) of the United States using an Intel(R) CPU @ 2.30GHz with 16GB RAM, running Windows 10 Professional Edition. This computer took about 15 hours 22 minutes to complete the primality test using LLR. Scott is also a member of the Aggie The Pew team.

    For more details, please see the official announcement.
    17 Mar 2018 | 15:44:44 UTC
    von Veröffentlicht: 17.03.2018 07:50
    1. Kategorien:
    2. Projekte

    Bis Anfang der Woche wurden einige fehlerhafte WUs verteilt, von denen einige noch im Umlauf sein könnten. Diese brechen sofort mit Berechnungsfehler ab, sodass keine Rechenzeit verloren geht. Wer in den letzten Tagen einige solcher Fehler beobachtet hat, braucht sich also keine Sorgen zu machen.

    Neuigkeiten
    Liebe Teilnehmer von VGTU project@Home,

    wir arbeiten beständig an der aktuellen Forschungsaufgabe.

    Obwohl ihr keine Änderungen an den Anwendungen seht (die Versionsnummer bleibt gleich), werden die Aufgabenerzeugung und die Assimilierung/Verarbeitung der Ergebnisse von Zeit zu Zeit verändert.

    Bei einer dieser Änderungen ist ein Problem bei der Erzeugung von Aufgaben (WUs) entstanden. Wir denken, dass wir dieses Problem am Montag, den 12. März, behoben haben. Es scheint keine Probleme mit den seither erzeugten Aufgaben/WUs zu geben. Es könnten jedoch noch einige ältere, fehlerhafte WUs im Umlauf sein... wir wissen nicht genau, welche wir abbrechen müssen. Doch seid unbesorgt, es geht keine Rechenzeit verloren. Die Anwendung startet gar nicht und erzeugt nach einigen Versuchen den Fehler ERR_TOO_MANY_EXITS.

    Die gute Nachricht ist, dass wir mit dem Schreiben eines Entwurfs für eine Veröffentlichung über die aktuelle Forschung mit unserem BOINC-Projekt begonnen haben.


    Mit freundlichen Grüßen,
    das Projekt-Team.
    16.03.2018, 10:48:45 MEZ

    Originaltext:
    Zitat Zitat von https://boinc.vgtu.lt/vtuathome/
    News
    Dear VGTU project@Home users,

    We are constantly working on the current research problem.

    Although, you don’t see changes in the client applications (versions are the same), generation of work and assimilation/processing of the results are changed from time to time.

    After one of such changes, the bug was introduced into generation of tasks (workunits). We believe that we have fixed this bug in work generator on Monday, March 12. It seems that there are no problems with the tasks/workunits generated since then. However, some older erroneous work units may still be there… We don’t know exactly which to cancel them. Don’t worry, no time is lost: application simply fails to start and generates ERR_TOO_MANY_EXITS error after some number of trials.

    The good news is that we have started to write a draft of the paper on the current research using our BOINC project.


    With best regards,
    The Project Team.
    16 Mar 2018, 9:48:45 UTC
    von Veröffentlicht: 17.03.2018 07:25
    1. Kategorien:
    2. Projekte

    Die vor zwei Monaten erstellte Sammlung graphischer Darstellungen der gefundenen ODLS-Beziehungen wurde erweitert:

    Neue ODLS-Graphen veröffentlicht!
    Liebe Cruncher!

    Wir begrüßen den Frühling (und 7 Monate Arbeit des Projektes) mit der Veröffentlichung neu entdeckter Graphen von euch gefundener orthogonaler diagonaler lateinischer Quadrate, siehe die Abbildungen 19-27.

    Derzeit arbeiten wir an graphischer Darstellung und Vergleichsmöglichkeiten, welche die Auswertung der Ergebnisse ermöglichen werden. Dadurch wird es auch möglich, eine Idee von Michael H.W. Weber umzusetzen, dass die eigenen Entdeckungen auf der Projektseite angezeigt werden.

    Danke für eure Teilnahme und frohes Crunchen!
    11.03.2018, 14:38:00 MEZ

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    New graphs of ODLSs published!
    Dear crunchers!

    We welcome spring (and 7 months of the project's work) by publishing newly discovered graphs of ODLSs found by you, figures 19-27.

    Currently we are working on graph representation and comparison methods, which will allow to analyze the results. This will also allow to implement an idea proposed by Michael H.W. Weber to display personal discoveries on the project website.

    Thank you for participation, and happy crunching!

    [...]

    11 Mar 2018, 13:38:00 UTC
    von Veröffentlicht: 15.03.2018 21:25
    1. Kategorien:
    2. Projekte

    Der laufende Monat ist schon wieder halb vorbei, dennoch soll ein Blick auf alle Primzahlfunde des vergangenen Monats nicht fehlen. Dank der Tour de Primes war der Februar für Primzahlenjäger sehr erfolgreich, wie die untenstehende Grafik eindeutig belegt. Außer den 256 Top-5000-Funden der Tour de Primes gab es noch 31 kleinere Funde, sodass der Februar insgesamt 287 Primzahlen zu Tage förderte. SETI.Germany stellte dabei 24-mal den Erstfinder und 15-mal den Doublechecker.

    Trotz der extrem vielen Funde gehörte lediglich eine Primzahl zu den 100 größten bekannten Primzahlen und wurde entsprechend in den Projektnachrichten bekanntgegeben:
    • 4246258^262144+1, 1737493 Dezimalstellen, gefunden von Robish (Team: Storm) aus Irland am 15.02.2018 um 03:15:40 MEZ, bestätigt von [B@P] Daniel (BOINC@Poland) aus Polen am 15.02.2018 um 03:18:23 MEZ


    Die Megaprimzahlfunde konzentrierten sich auf die Subprojekte MEGA und GFN-17-Mega, auf die stolze 15 Funde entfielen:
    • Die 1042790-stellige Proth-Primzahl 641*2^3464061+1 wurde am 01.02.2018 um 10:03:35 MEZ von vaughan (AMD Users) aus Australien mit einem Intel Core i7-7700HQ gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 24 Minuten benötigt wurden. Die Bestätigung erfolgte am 01.02.2018 um 16:09:33 MEZ durch Krzysiak_PL_GDA (BOINC@Poland) aus Polen mit einem Intel Xeon E5-2680 v2, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 1 Stunde 13 Minuten benötigt wurden.

    • Die 1007554-stellige verallgemeinerte Fermat-Primzahl 48643706^131072+1 wurde am 02.02.2018 um 9:46:40 MEZ von [B@P] Daniel (BOINC@Poland) aus Polen mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-7700 gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 34 Sekunden benötigt wurden. Die Bestätigung erfolgte am 02.02.2018 um 9:49:15 MEZ durch eXaPower aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i5-4440S, wobei für den PRP-Test mit Genefer 7 Minuten 37 Sekunden benötigt wurden.

    • Die 1008015-stellige verallgemeinerte Fermat-Primzahl 49038514^131072+1 wurde am 10.02.2018 um 19:46:43 MEZ von Plšák Ráďa (Czech National Team) aus Tschechien mit einer NVIDIA GeForce GTX 1050 Ti in Verbund mit einem AMD Ryzen 5 1600X gefunden, wobei für den PRP-Test mit Genefer 16 Minuten 48 Sekunden benötigt wurden. Die Bestätigung erfolgte am 10.02.2018 um 19:49:58 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem AMD Ryzen 7 1700X, wobei für den PRP-Test mit Genefer 7 Minuten 21 Sekunden benötigt wurden.

    • Die 1008075-stellige verallgemeinerte Fermat-Primzahl 49090656^131072+1 wurde am 12.02.2018 um 0:22:10 MEZ von eXaPower aus den Vereinigten Staaten mit einer NVIDIA GeForce GT 650M in Verbund mit einem Intel Core i5-3230M gefunden, wobei für den PRP-Test mit Genefer 1 Stunde 18 Minuten 51 Sekunden benötigt wurden. Die Bestätigung erfolgte am 12.02.2018 um 13:40:52 MEZ durch xXUnRealXx aus Polen mit einer AMD Radeon RX 480 in Verbund mit einem AMD FX-8120, wobei für den PRP-Test mit Genefer 13 Minuten 31 Sekunden benötigt wurden.

    • Die 1008232-stellige verallgemeinerte Fermat-Primzahl 49225986^131072+1 wurde am 15.02.2018 um 2:20:28 MEZ von polarbeardj (Crunching@EVGA) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem AMD Ryzen 7 1700X gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 47 Sekunden benötigt wurden. Die Bestätigung erfolgte am 15.02.2018 um 2:26:18 MEZ durch Josef Schlereth (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem Intel Core i5-7600K, wobei für den PRP-Test mit Genefer 7 Minuten 58 Sekunden benötigt wurden.

    • Die 1008252-stellige verallgemeinerte Fermat-Primzahl 49243622^131072+1 wurde am 15.02.2018 um 11:56:42 MEZ von mackerel (Aggie The Pew) aus dem Vereinigten Königreich mit einer NVIDIA GeForce GTX 980 Ti in Verbund mit einem Intel Core i7-7800X gefunden, wobei für den PRP-Test mit Genefer 10 Minuten 21 Sekunden benötigt wurden. Die Bestätigung erfolgte am 15.02.2018 um 18:48:59 MEZ durch Spear (Storm) aus Irland mit einer NVIDIA GeForce GT 1030 in Verbund mit einem Intel Core i7-5960X, wobei für den PRP-Test mit Genefer 34 Minuten 58 Sekunden benötigt wurden.

    • Die 1008354-stellige verallgemeinerte Fermat-Primzahl 49331672^131072+1 wurde am 17.02.2018 um 6:01:29 MEZ von [AF>Libristes]cguillem (L'Alliance Francophone) aus Frankreich mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem AMD Ryzen 7 1800X gefunden, wobei für den PRP-Test mit Genefer 11 Minuten 7 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.02.2018 um 16:49:36 MEZ durch Corla99 [Lombardia] (BOINC.Italy) aus Italien mit einer AMD Radeon RX 560 in Verbund mit einem AMD Ryzen 7 1800X, wobei für den PRP-Test mit Genefer 34 Minuten 33 Sekunden benötigt wurden.

    • Die 1008430-stellige verallgemeinerte Fermat-Primzahl 49397682^131072+1 wurde am 18.02.2018 um 11:51:52 MEZ von Reggie aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700K gefunden, wobei für den PRP-Test mit Genefer 10 Minuten 54 Sekunden benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 12:34:52 MEZ durch kittyjia (Team China) aus China mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Xeon E3-1230 V2, wobei für den PRP-Test mit Genefer 14 Minuten 21 Sekunden benötigt wurden.

    • Die 1047521-stellige Proth-Primzahl 701*2^3479779+1 wurde am 19.02.2018 um 2:23:12 MEZ von tng* (Sicituradastra.) aus den Vereinigten Staaten mit einem Intel Core i7-6700 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 16 Minuten benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 2:26:48 MEZ durch composite aus Kanada mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR auf 7 Threads etwa 14 Minuten benötigt wurden.

    • Die 1047506-stellige Proth-Primzahl 813*2^3479728+1 wurde am 19.02.2018 um 2:44:59 MEZ von [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem Intel Xeon E5-2699C v4 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 36 Minuten benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 4:02:33 MEZ durch Matthew D Doenges aus den Vereinigten Staaten mit einem Intel Core i7-6700, wobei für den Primalitätstest mit LLR etwa 2 Stunden 52 Minuten benötigt wurden.

    • Die 1008582-stellige verallgemeinerte Fermat-Primzahl 49530004^131072+1 wurde am 20.02.2018 um 22:30:50 MEZ von DeleteNull (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem Intel Xeon E5-2670 0 gefunden, wobei für den PRP-Test mit Genefer 8 Minuten 20 Sekunden benötigt wurden. Die Bestätigung erfolgte am 20.02.2018 um 22:34:21 MEZ durch k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 980 in Verbund mit einem Intel Xeon X5680, wobei für den PRP-Test mit Genefer 12 Minuten benötigt wurden.

    • Die 1048098-stellige Proth-Primzahl 1149*2^3481694+1 wurde am 21.02.2018 um 4:11:38 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i9-7900X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 27 Minuten benötigt wurden. Die Bestätigung erfolgte am 21.02.2018 um 5:28:21 MEZ durch [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem AMD Ryzen 5 1600X, wobei für den Primalitätstest mit LLR etwa 1 Stunde 32 Minuten benötigt wurden.

    • Die 1049771-stellige Proth-Primzahl 699*2^3487253+1 wurde am 25.02.2018 um 23:49:33 MEZ von Scott Brown (Aggie The Pew) aus den Vereinigten Staaten mit einem Intel Xeon E5-2670 v2 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 50 Minuten benötigt wurden. Die Bestätigung erfolgte am 03.03.2018 um 22:35:54 MEZ durch Puppauz (WinTricks.it Italian Team) aus Italien mit einem Intel Core i3-6100, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1008912-stellige verallgemeinerte Fermat-Primzahl 49817700^131072+1 wurde am 26.02.2018 um 15:08:54 MEZ von k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i7-6700K gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 50 Sekunden benötigt wurden. Die Bestätigung erfolgte am 26.02.2018 um 15:14:39 MEZ durch yellingdog (Rose-Hulman Institute of Technology) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-5820K, wobei für den PRP-Test mit Genefer 7 Minuten 28 Sekunden benötigt wurden.

    • Die 1050242-stellige Proth-Primzahl 753*2^3488818+1 wurde am 27.02.2018 um 4:12:21 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-6800K gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 34 Minuten benötigt wurden. Die Bestätigung erfolgte am 27.02.2018 um 5:13:36 MEZ durch [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem Intel Xeon E5-2699C v4, wobei für den Primalitätstest mit LLR etwa 1 Stunde 36 Minuten benötigt wurden.


    Die 271 kleineren Primzahlfunde verteilen sich wie folgt:
    • Proth Prime Search (PPS): 5 Funde im Bereich 2563709 ≤ n ≤ 2567718 (771757-772963 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 169 Funde im Bereich 1466326 ≤ n ≤ 1484379 (441413-446846 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull, drei Erstfunde von [SG]KidDoesCrunch, zwei Erstfunde von No_Name, ein Erstfund und drei Doublechecks von dh1saj, ein Erstfund und zwei Doublechecks von ID4, je ein Erstfund und ein Doublecheck von Freezing und pschoefer, je ein Erstfund von boss, Flow und joe carnivore sowie je ein Doublecheck von [SGa]HeNiNnG, pan2000 und zipzap [SG-2W]
    • Sophie Germain Prime Search (SGS): 19 Funde im Bereich 3885213745497 ≤ k ≤ 3902970380367 (388342 Dezimalstellen), darunter ein Erstfund von axels
    • Generalized Fermat Prime Search (n=15): 12 Funde im Bereich 85962194 ≤ b ≤ 86852980 (259992-260139 Dezimalstellen)
    • Generalized Fermat Prime Search (n=16): 64 Funde im Bereich 29723118 ≤ b ≤ 36127768 (489757-495311 Dezimalstellen), darunter zwei Erstfunde von Josef Schlereth, ein Erstfund und zwei Doublechecks von ID4, ein Erstfund und ein Doublecheck von pschoefer sowie je ein Erstfund von dh1saj, Freezing und joe carnivore
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 11778792^131072+1 (926824 Dezimalstellen), 11876066^131072+1 (927292 Dezimalstellen)


    von Veröffentlicht: 14.03.2018 20:05
    1. Kategorien:
    2. Projekte

    Ein neues Papier, das von den Mitgliedern des climateprediction.net-Teams mitverfasst wurde, zeigt, dass Veränderungen wie der Ausbau der Bioenergie erheblichen Einfluss auf die Projektionen von Temperaturextremen haben.

    Die Motivation für den Intergovernmental Panel on Climate Change Special Report von 1,5 °C ergibt sich aus der Notwendigkeit zu verstehen, wie sich die Auswirkungen des Klimawandels bei einem halben Grad der globalen Erwärmung entwickeln können.

    Die meisten emissionsarmen Szenarien beinhalten erhebliche Landnutzungsänderungen (LUC) einschließlich des Ausbaus von Bioenergie- und Nahrungsmittelpflanzen sowie Aufforstungen. Die Auswirkungen der Landnutzung und des Landmanagements auf die Nahrungsmittelproduktion und die Forstwirtschaft haben nachweislich erheblichen Einfluss auf das lokale und regionale Klima, insbesondere auf Klimaextreme.

    Zukünftige Emissionsszenarien, die als Input für Klimamodelle dienen, werden mit Hilfe von integrierten Bewertungsmodellen abgeleitet und konzentrieren sich auf die Treibhausgasemissionen. Änderungen in der Landnutzung haben jedoch auch direkte Auswirkungen auf das lokale Klima durch die lokalen Wasser- und Energiebilanzen, was in diesen Modellen nicht berücksichtigt wird.

    Diese Studie zeigt, dass das Landnutzungsszenario einen erheblichen Einfluss auf die Projektionen von Temperaturextremen für emissionsarme Szenarien hat. Insbesondere bei großen Landflächen in der nördlichen Hemisphäre können mehr als 20 % der Temperaturschwankungen auf LUC zurückgeführt werden. Unsere Studie zeigt aber auch, dass erhebliche Unsicherheiten darüber bestehen, was die Rückkopplungen der Landnutzung für landgestützte Vermeidungsmaßnahmen bedeuten können.



    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/happi-land-paper-examines-influence-of-land-use-change-on-global-warming/
    A new paper co-authored by climateprediction.net team members shows changes such as bioenergy expansion have considerable influence on projections of temperature extremes.

    The motivation for the Intergovernmental Panel on Climate Change Special Report of 1.5°C stems from the need to understand how the impacts of climate change may evolve for half a degree of global warming.

    Most low-emission scenarios involve substantial land-use change (LUC) including the expansion of bioenergy and food crops, as well as afforestation. The impacts of land use and land management for food production and forestry have been shown to have considerable influence on local and regional climate, particularly for climate extremes.

    Future emission scenarios used as input to climate models are derived using integrated assessment models, and focus on greenhouse gas emissions. However, changes in land use also have a direct effect on local climate through the local water and energy balances, which is not considered in these models, and therefore, our understanding on how dependent these climate projections are to the choice of land-use scenario is limited.

    This study demonstrates that the land-use scenario has a considerable influence on the projections of temperature extremes for low-emission scenarios. In particular, for large land areas in the Northern Hemisphere, more than 20% of the change in temperature extremes can be attributed to LUC. However, our study also reveals that considerable uncertainty remains on what the feedbacks of land use may mean for land-based mitigation activities.
    von Veröffentlicht: 11.03.2018 18:00
    1. Kategorien:
    2. Projekte

    Nach fast zweimonatiger Pause geht die PrimeGrid Challenge Series 2018 in die nächste Runde mit einer verspäteten Feier des chinesischen Neujahrsfestes:

    Year of the Dog Challenge
    Beginn: 16.03.2018, 18:00 UTC = 19:00 MEZ
    Ende: 23.03.2018, 18:00 UTC = 19:00 MEZ
    Subprojekt: 321 Prime Search LLR (321)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs des Subprojekts 321 Prime Search LLR (321), die nach dem 16.03. um 19:00 Uhr heruntergeladen und vor dem 23.03. um 19:00 Uhr zurückgemeldet werden! Das gewünschte Subprojekt kann in den PrimeGrid-Einstellungen festgelegt werden.

    Anwendungen gibt es für Windows, Linux und MacOS (Intel), jeweils 32- und 64-Bit. Wer in letzter Zeit keine WUs von einem PrimeGrid-LLR-Subprojekt berechnet hat, sollte dies vielleicht schon vor der Challenge mit kleineren WUs wie SGS nachholen, um die relativ große Anwendung (~35 MB) bereits auf dem Rechner zu haben.

    Die verwendete LLR-Anwendung belastet die CPU sehr stark und toleriert keinerlei Fehler. Daher bitte nicht zu stark übertakten und auf gute Kühlung achten!

    Die WU-Laufzeiten betragen bei Benutzung einzelner CPU-Kerne bis zu zwei Tage auf halbwegs aktuellen CPUs. Schneller und in vielen Fällen auch effizienter geht es, wenn mehrere CPU-Kerne an einer WU arbeiten. Das lässt sich mit einer app_config.xml erreichen (im Beispiel für 4 Kerne):
    Code:
    <app_config>
      <app_version>
        <app_name>llr321</app_name>
        <cmdline>-t 4</cmdline>
        <avg_ncpus>4</avg_ncpus>
      </app_version>
    </app_config>
    Dieser Text muss als app_config.xml im Unterverzeichnis projects\www.primegrid.com des BOINC-Datenverzeichnisses (unter Windows standardmäßig C:\ProgramData\BOINC) gespeichert werden. Die Einstellung wird durch Konfigurationsdatei einlesen oder Neustart für neue WUs übernommen.

    In jedem Fall haben moderne Intel-CPUs durch die automatisch benutzten Optimierungen (AVX, FMA3) einen erheblichen Vorteil. CPUs, die Hyperthreading unterstützen, laufen oft effizienter, wenn Hyperthreading nicht benutzt wird.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Team-Stats bei SETI.Germany
    Detail-Statistik für SETI.Germany
    User-Stats bei SETI.Germany

    Zum Diskussionsthread
    von Veröffentlicht: 11.03.2018 15:05
    1. Kategorien:
    2. Projekte

    Nach mehrwöchiger Pause meldet sich Universe@Home mit einer neuen Anwendung zu Schwarzen Löchern zurück, zunächst mit Test-WUs zum Beheben letzter Probleme.

    BHDB-Anwendung
    Auf unserem Server wurde gerade die neue Anwendung BHDB (Black Hole Database, Schwarze-Löcher-Datenbank) bereitgestellt.
    Erste WUs werden zu Testzwecken versendet, um zu prüfen, ob mit Anwendung und Punktesystem alles in Ordnung ist.

    In naher Zukunft werden wir weitere Informationen dazu veröffentlichen.
    09.03.2018, 15:40:44 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/
    BHDB application
    On our server just start new BHDB (Black Hole Database) application.
    First work units release will be testing one, to check if everything is ok with application and points system

    In near future we will publish more information about it.
    9 Mar 2018, 14:40:44 UTC
    von Veröffentlicht: 11.03.2018 08:50
    1. Kategorien:
    2. Projekte

    Neben weiteren ODLS-Paaren ist zu vermelden, dass das Projekt nun zu 10% abgeschlossen ist:

    Die Ergebnisse im Februar 2018!
    Liebe Teilnehmer!

    In der zweiten Februar-Hälfte wurden 583 Ergebnisse mit einem oder mehreren Paaren orthogonaler diagonaler lateinischer Quadrate gefunden!

    Nun sind 10% aller WUs berechnet und wir danken allen Projektteilnehmern für die große Rechenleistung, die sie für diese Forschung spenden! Vielen Dank und frohes Crunchen!
    10.03.2018, 7:39:40 MEZ

    Unter den Findern der ODLS-Paare (zur vollständigen Liste) waren mit [SG-2W]Kurzer und Matthias Lehmkuhl auch zwei Mitglieder von SETI.Germany.

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    February 2018 totals!
    Dear participants!

    For the second half of February was found a 583 results with one or more ODLS pairs!

    [...]

    Now a 10% of entire workunits space is complete and we thanks to all projects participants for big computing power that wh donate for this research! Thank you very much and happy crunching!
    10 Mar 2018, 6:39:40 UTC
    von Veröffentlicht: 11.03.2018 08:35
    1. Kategorien:
    2. Projekte

    Einige kürzlich vorgenommene Änderungen, um fehlerhafte Rechner auszusortieren, hatten auch Auswirkungen auf funktionstüchtige Rechner und wurden daher rückgängig gemacht:

    Änderung zur Sperrung unzuverlässiger Rechner wird rückgängig gemacht
    Hallo zusammen,

    ich werde den Wechsel auf die BOINC-eigene Option zur Benutzung zuverlässiger Rechner rückgängig machen. Sie scheint ungewollte Auswirkungen auf die Benutzbarkeit des Projektes für einige Benutzer zu haben.

    Zukünftig werden Sidd und ich die schlimmsten Verursacher fehlerhafter WUs manuell sperren.

    Ich bitte alle betroffenen zu entschuldigen, dass ihr zuletzt nicht für uns crunchen konntet.

    Jake
    05.03.2018, 21:15:32 MEZ


    Die ersten Rechner wurden von Hand gesperrt, was für den Besitzer auch in der Rechnerübersicht beim Projekt ersichtlich ist:

    Sperrung von Rechnern mit hoher Fehlerzahl
    Hallo zusammen,

    ich werde acht Rechner mit extrem hoher Fehlerzahl (über 1000 in ihrem aktuellen Verlauf) sperren. Wenn ihr einen dieser Rechner besitzt und unglücklich mit der Sperre seid, benachrichtigt mich bitte und wir können über eine Aufhebung der Sperre reden.

    Das ist eine vorübergehende Lösung, bis ich ein besser automatisiertes Sperrsystem aufgebaut habe, das gelegentliche Tests von Rechnern ermöglicht, um zu prüfen, ob die Fehler behoben wurden.

    Über den besten Weg für einen automatisierten Algorithmus kann hier diskutiert werden und ich werde versuchen, dabei mitzukommen.

    Jake

    Nachtrag:

    Ich habe eine Funktion hinzugefügt, um auf einen Blick feststellen zu können, ob einer eurer Rechner gesperrt wurde. Ein gesperrter Rechner wird auf der Seite "Computer, die zu diesem Konto gehören" in rot hervorgehoben. Diese Rechner werden für niemanden sonst rot markiert und nur ihr selbst könnt sehen, ob ihr gesperrt wurdet.
    07.03.2018, 20:55:44 MEZ


    Zugleich wird auch daran gearbeitet, die Verteilung von WUs an ungeeignete Grafikkarten als eine der häufigsten Fehlerquellen zu unterbinden:

    Tests einiger neuer Planklassen
    Hallo zusammen,

    ich werde versuchen, die GPU-Planklassen zu verändern, um die an Benutzer ohne GPUs mit doppelter Genauigkeit geschickten WUs zu vermindern. Wenn ihr auf eurer Seite irgendwelche Probleme bemerkt, lasst es mich bitte wissen.

    Danke,

    Jake
    08.03.2018, 19:06:30 MEZ


    Originaltexte:
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Reverting Change to Remove Unreliable Hosts
    Hey Everyone,

    I am going to be reverting the change to use the built in BOINC use reliable hosts option. It seems to be having unintended consequences to the usability of the project for some users.

    In the future, Sidd and I will look into manually removing the worst offenders who are sending back erroring workunits.

    For anyone effected, I apologize if you haven't been able to crunch for us recently.

    Jake
    5 Mar 2018, 20:15:32 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Removing Hosts With High Error Counts
    Hey Everyone,

    I am going to be issuing suspensions to 8 hosts with extremely high error counts (over 1000 in their recent history). If you own one of these hosts and are unhappy with the suspension, please message me and we can discuss removing the suspension.

    This is a temporary solution until I can implement a more automated suspension system with occasional retesting of hosts to see if they have been fixed.

    Any discussion about how to best implement an automated algorithm can go here and I will attempt to keep up.

    Jake

    Edit:

    I added a feature to determine if one of your hosts is suspended at a quick glance. Any of your suspended hosts will show up highlighted in red on the "computers on this account" page in your account information page. These hosts will not show up as red to anyone else and only you will know if you are suspended.
    7 Mar 2018, 19:55:44 UTC
    Zitat Zitat von https://milkyway.cs.rpi.edu/milkyway/
    Testing Some New Plan Classes
    Hey Everyone,

    I am going to try changing the GPU plan classes to reduce workunits sent to users without double precision gpus. If you notice any issues on your end, please let me know.

    Thanks,

    Jake
    8 Mar 2018, 18:06:30 UTC
    Seite 51 von 96 Erste ... 41 49 50 51 52 53 61 ... Letzte
Single Sign On provided by vBSSO