• SETI.Germany News RSS-Feed

    von Veröffentlicht: 26.03.2018 16:05
    1. Kategorien:
    2. Projekte

    Derzeit laufen Wartungsarbeiten, die sich ein wenig in die Länge ziehen:

    Server-Verbesserung - Hochladen von Dateien pausiert
    Wir werden heute den Speicher-Unterbau unserer BOINC-Server ändern und die Dateiserver werden während dieses Vorgangs abgeschaltet.

    Daher werden eure BOINC-Clients heute für einige Stunden keine Dateien von LHC@home hochladen oder herunterladen können. Sobald unser Wartungseingriff beendet ist, können BOINC-Clients wieder hochladen.

    Danke für euer Verständnis und frohes Crunchen!
    26.03.2018, 7:23:52 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    Server upgrade - file uploads paused
    We will change the storage back-end on our BOINC servers today, and the file servers will be disabled during the operation.

    Hence your BOINC clients will get not be able to upload or download files from LHC@home today for a few hours. Once our maintenance operation is finished, BOINC clients will be able to upload again.

    Thanks for your understanding and happy crunching!
    26 Mar 2018, 6:23:52 UTC
    von Veröffentlicht: 24.03.2018 11:35
    1. Kategorien:
    2. Projekte

    Ein neues, eher kurzzeitiges Subprojekt, das sich mit septischen Zahlkörpern befasst, wird in den nächsten Tagen beginnen.

    Neue Anwendung in Kürze
    In den nächsten Tagen werden wir eine neue Zahlkörper-Anwendung einführen. Diese wird sich mit Zahlkörpern siebten Grades (auch septische Zahlkörper genannt) beschäftigen. Der beste Grenzwert ist aktuell 5*10^6 und diese Anwendung wird ihn auf 200*10^6 anheben. Das bedeutet, sie wird alle Zahlkörper siebten Grades finden, deren Diskriminante kleiner als 200*10^6 ist.

    Einige weitere Informationen:
    1. Diese Suche sollte nur etwa 5 bis 6 Monate laufen (könnte aber länger dauern).
    2. Sie wird parallel zur aktuellen Anwendung zu decischen Zahlkörpern laufen.
    3. Sie wird nur 64-Bit-Windows und 64-Bit-Linux unterstützen.
    24.03.2018, 7:21:03 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/
    New application coming soon
    In the coming days we will be introducing a new number field application. This one will target degree 7 fields (called septics). The current best bound is 5E6, and this app will increase that to 200E6. This means it will find all degree 7 fields whose discriminant is bounded by 200E6.

    Here is some additional information:
    1. This search is expected to run for only 5 to 6 months (but could take longer).
    2. It will run side-by-side with the current decic app.
    3. It will only support the 64bit Windows and 64 bit Linux platforms.
    24 Mar 2018, 6:21:03 UTC
    von Veröffentlicht: 21.03.2018 07:15
    1. Kategorien:
    2. Projekte

    Mittlerweile sind 5 von 16 Sätzen bearbeitet, sodass beim aktuellen Tempo noch etwa Arbeit für 11 Wochen bleibt.

    Fortschrittsmeldung zu SoFiA 100MB
    Hallo zusammen,

    nur ein kleiner Fortschrittsbericht zur Berechnung unserer 100MB-Würfelchen.
    Bisher haben wir erfolgreich 5 von 16 Würfelchen-Sätze bearbeitet und bearbeiten etwa einen Satz pro Woche.
    Die Ergebnisdatenbank sieht auch recht gut aus. Ich sehe nicht zu viele Validierungsfehler (etwa einer pro etwa 30 Ergebnisse), das ist sicherlich vielversprechend.

    Es sei auch noch daran erinnert, dass ihr nur dann 100MB-Würfelchen erhalten, wenn ihr mit dem Auswahlkasten "Run test applications?" in den Sourcefinder-Projekteinstellungen eingewilligt habt, diese zu erhalten. Grund dafür ist, dass die 100MB-Würfelchen deutlich mehr CPU, Hauptspeicher und Speicherplatz benötigen als die bisherigen Würfelchen.

    Danke,
    Sam
    21.03.2018, 2:13:12 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    SoFiA 100MB Progress Update
    Hello Everyone,

    Just a quick progress update on the processing of our 100MB cubelets.
    So far we've successfully processed 5 / 16 cubelet sets, and we're processing about 1 set per week.
    The results database is looking pretty good too. I'm not seeing too many validation errors (about one every 30 or so results), so that's certainly promising.

    Just a note that you'll only receive 100MB cubelets if you opt in to receiving them via checking the "Run test applications?" checkbox on the Sourcefinder preferences page. This is because the 100MB cubelets are significantly more CPU, memory, and disk intensive than the previous cubelets.

    Thanks,
    Sam
    21 Mar 2018, 1:13:12 UTC
    von Veröffentlicht: 20.03.2018 23:40
    1. Kategorien:
    2. Projekte

    Kurzbeschreibung der neuesten Erkenntnisse des Teams

    Die Leishmaniose ist eine der am meisten vernachlässigten Tropenkrankheiten der Welt und infiziert mehr als zwei Millionen Menschen in 98 Ländern. Die derzeitigen Behandlungen für alle Formen der Leishmaniose können schwere Nebenwirkungen, einschließlich des Todes, verursachen. Darüber hinaus verursachen arzneimittelresistente Parasiten in vielen Ländern große Probleme. Aus diesen Gründen besteht ein dringender Bedarf an neuen, sicheren und kostengünstigen Arzneimitteln.

    Das Drug Search for Leishmaniasis Team hat seine Labortests seit dem letzten Update fortgesetzt. Die jüngste Testrunde umfasste 10 Substanzen, die als potenziell sicherere und wirksamere Behandlungsmethoden identifiziert wurden.

    Die Verbindungen wurden zuerst auf Toxizität und dann auf Wirksamkeit gegen zwei häufige Parasiten getestet, die Leishmaniose verursachen können. Basierend auf den Tests wäre keine der getesteten Substanzen eine wirksame Behandlung der Krankheit.

    Die Forscher werden diese Ergebnisse veröffentlichen, so wie sie es bisher mit ihren Daten getan haben. Dies wird andere Wissenschaftler auf die starke Möglichkeit aufmerksam machen, dass diese speziellen Verbindungen gegen Leishmaniose nicht wirksam sind und ihnen helfen, Entscheidungen über die Prüfung anderer Verbindungen zu treffen. Sobald das Team zusätzliche Mittel erhalten hat, werden sie weitere Verbindungen testen, die bei der Behandlung von Leishmaniose nützlich sein können.

    Jeder, der an einer vollständigen wissenschaftlichen Beschreibung dieser letzten Testrunde interessiert ist, kann hier nachlesen. Vielen Dank an alle, die dieses Projekt unterstützt haben.



    Originaltext:
    Zitat Zitat von https://www.worldcommunitygrid.org/about_us/viewNewsArticle.do?articleId=556

    Short description of the team’s latest findings

    Leishmaniasis is one of the most neglected tropical diseases in the world, infecting more than two million people in 98 countries. The current treatments for all forms of leishmaniasis can cause severe side effects, including death. Furthermore, drug resistant parasites are causing major problems in many countries. For these reasons, there is an urgent need for new, safe, and inexpensive drug compounds.

    The Drug Search for Leishmaniasis team has continued their lab testing since their last update. The most recent round of testing involved 10 compounds that had been identified as having potential to be safer, more effective treatments.

    The compounds were tested first for toxicity, then for effectiveness against two common parasites that can cause leishmaniasis. Based on the testing, none of the compounds tested would be effective treatments for the disease.

    The researchers will make these results public, as they have done with their data to-date. This will alert other scientists to the strong possibility that these particular compounds are not effective against leishmaniasis, and help them make decisions about testing other compounds. Once the team has obtained additional funding, they will test additional compounds that may be useful in treating leishmaniasis.

    Anyone interested in a full scientific description of this latest round of testing can read below. Thanks to everyone who supported this project.
    von Veröffentlicht: 19.03.2018 21:10
    1. Kategorien:
    2. Projekte

    Nach langer Zeit sendet das Projekt wieder Lebenszeichen:

    Wiederbeginn des Projektes!
    Hallo zusammen,
    vielen Dank für euer geduldiges Warten. Ich schreibe euch, um euch gute Neuigkeiten mitzuteilen. Wir haben am Freitag eine kleine Menge Aufgaben verschickt, um zu prüfen, ob alles funktioniert. Schritt für Schritt werden wir mehr Aufgaben verschicken. Es sieht so aus, als ob alles funktioniert, aber wir wollen langsam vorgehen, um jeden Schritt sicherzustellen. Wir müssen noch immer einiges verbessern, aber jetzt können wir sagen, dass wir zurück sind!

    Vielen Dank für eure Mitarbeit,
    Jesus.
    19.03.2018, 12:11:08 MEZ

    Originaltext:
    Zitat Zitat von http://denis.usj.es/denisathome/forum_thread.php?id=158
    Re-starting the project!
    Dear all,
    Thank you very much everyone for your patient wait. I'm writting to you to give you good news. We sent an small block of tasks to check if all is working well this Friday. Little by little, we will send more task. It seems that everything is working well but we want to go slowly to ensure each step. We have still some things to improve but now we can say that we are back!

    Many thank you for your collaboration
    Jesus.
    19 Mar 2018, 11:11:08 UTC
    von Veröffentlicht: 17.03.2018 21:00
    1. Kategorien:
    2. Projekte

    Am vergangenen Mittwoch war ein großer Meilenstein des Projektes zu vermelden, das 2011 als Test4Theory begann und nach mehreren Umbenennungen schließlich als Subprojekt Theory Simulation im konsolidierten Projekt LHC@home aufging:

    Theory Simulation erreicht heute 4 Billionen Ereignisse!!
    Das LHC@home-Subprojekt Theory Simulation hat heute den Meilenstein von 4 BILLIONEN simulierten Ereignissen erreicht. Dieses Projekt begann unter seinem früheren Namen "Test4Theory" im Jahr 2011 den Produktivbetrieb und war das erste BOINC-Projekt, das auf Virtuelle Maschinen setzte (basierend auf dem CernVM-System des CERN).

    Wir werden in den kommenden Tagen einige weitere Einzelheiten für euch auf den LHC@home- und CERN-Internetseiten veröffentlichen. Hier ist eine erste Mitteilung:

    http://lhcathome.web.cern.ch/article...rillion-events

    Vielen Dank an all unsere Freiwilligen für das Ermöglichen dieser Leistung!
    14.03.2018, 6:37:23 MEZ


    Im folgenden sei auch die verlinkte Mitteilung übersetzt:

    Test4Theory überschreitet 4 Billionen Ereignisse
    Das LHC@home-Subprojekt Theory Simulation hat heute den Meilenstein von 4 BILLIONEN simulierten Ereignissen erreicht. Dieses Projekt begann unter seinem früheren Namen "Test4Theory" im Jahr 2011 den Produktivbetrieb und war das erste BOINC-Projekt, das auf Virtuelle Maschinen setzte (basierend auf dem CernVM-System des CERN). Das folgende Foto, das am CERN-Rechenzentrum aufgenommen wurde, zeigt einige der zurzeit am Projekt beteiligten Leute:


    Von links nach rechts: Nikolas Giannakis (CERN), Nils Høimyr (CERN), Laurence Field (CERN), Anton Karneyeu (CERN & INR Moskau), Ben Segal (CERN), Peter Skands (Monash University)

    Peter Skands: Test4Theory ist eine tolle Illustration der unvergleichlichen Arten von Projekten, die an einem Ort wie dem CERN spontan passieren können. Im Jahr 2010 war ich gerade als neuer Mitarbeiter in der Theorieabteilung des CERN angekommen. Meine Forschung betrifft "virtuelle Collider" - im Wesentlichen Computersimulationen der Physik in Collidern wie dem Large Hadron Collider. Ein Kollege stellte mich Ben Segal (ebenfalls auf dem Foto) vor, der ein kleines Entwicklungsteam vertrat, das nach wissenschaftlichen Anwendungszwecken zum Test eines neuen Konzeptes suchte: Volunteer Computing auf Basis von Virtuellen Maschinen. Das passte mir bestens. Als kleine Theoretiker-Gruppe hatten wir keinen Zugruff auf die gleiche Art von großen Rechenressourcen, derer sich unsere Experimentatoren-Kollegen rühmen können, sodass Großversuche und Bestätigungen der Art, wie wir sie jetzt über Test4Theory durchführen können, zu jener Zeit unvorstellbar waren. Ich hatte vorher nicht über Volunteer Computing nachgedacht, da die Arten von wissenschaftlicher Software, die wir schreiben, nahezu ausschließlich auf Linux-Systemen entwickelt werden und laufen, wohingegen die meisten Freiwilligen Windows- oder Mac-Systeme hätten. Bens Vorschlag, unsere Simulationen in einer virtuellen Linux-Maschine einzukapseln, welche dann auf jedem System ausgeführt werden könnte, schien äußerst elegant. Wir begannen sofort mit der Zusammenarbeit und es ging wirklich voran, als Anton Karneyeu (auch auf dem Foto) zum Projekt stieß. Alpha-Tests begannen Ende 2010 und ein halbes Jahr später funktionierte das System reibungslos und kontinuierlich mit etwa 100 angeschlossenen Rechnern aus der ganzen Welt. Etwa 5 Milliarden Collider-Ereignisse wurden während dieser Testphase erzeugt. Dann begann der Beta-Test mit dem Schwerpunkt der Skalierbarkeit des Systems und erhöhte die Gesamtzahl der angeschlossenen Rechner bis 2012 auf mehrere Tausend. Seitdem ist das System gereift und weiter gewachsen, was uns erlaubt, mehr Vergleiche zwischen Theorie und Daten anzustellen. Diese Vergleiche sind das Herzstück des Projektes und die Ergebnisse sind offen verfügbar auf der Internetseite mcplots.cern.ch, welche von einem breiten Spektrum von Theoretikern und Experimentatoren als eine Datenbank von Validierungen der Simulationen gegen reale Daten benutzt wird. Obwohl ich nun an der Monash University (in Melbourne, Australien) arbeite, bin ich weiterhin aktiv an Test4Theory beteiligt und mcplots bleibt die Anlaufstelle, um einen umfassenden Überblick zu erhalten, wie gut verschiedene Arten von physikalischen Modellen, verschiedene Stufen von Näherungen und verschiedene Parametereinstellungen mit der Vielzahl von Vergleichsmessungen übereinstimmen, die nicht nur am LHC, sondern auch in vielen älteren Collider-Experimenten durchgeführt wurden. Wir stehen tief in der Schuld sowohl der Freiwilligen, die das ermöglichen, als auch der Softwareentwicklungs- und IT-Teams am CERN, die geholfen haben, die Projektidee in die Realität umzusetzen.

    Ben Segal: Ich habe im Jahr 2004 die Erschaffung des ersten BOINC-Projektes am CERN, LHC@home/Sixtrack, geleitet. Seit 2008 habe ich das BOINC/CernVM-System koordiniert, welches erlaubt, CERN-Physikanwendungen auf LHC@home auszuführen, beginnend mit dem Test4Theory-Projekt im Jahr 2011 und später die ATLAS-, CMS- und LHCb-Experimente. Ich möchte in Erinnerung rufen, dass ein großer Teil der Arbeit zur Schaffung von LHC@home seit 2004 von Freiwilligen geleistet wurde, im Geiste von BOINC selbst - entweder von "Rentnern" wie mir selbst und Eric McIntosh oder von CERN-Personal in "Überstunden" oder von einigen Dutzend Studenten, Fellows und Besuchern, die im Laufe der Jahre zum Projekt beigetragen haben.

    Anton Karneyeu ist im Jahr 2010 zum MCPLOTS-Projekt gestoßen, um Ordnung ins Chaos verschiedener Hochenergiephysik-Simulationsprogrammcodes zu bringen. Er entwickelte Werkzeuge, um diese Programmcodes über Test4Theory auszuführen, und eine Web-Schnittstelle zum Durchsuchen der Ergebnisse.

    Laurence Field: Mit großer Grid-Computing-Erfahrung hat Laurence den CMS-Piloten bei LHC@home gestartet und ist später im Jahr 2016 zum LHC@home-Kernteam gestoßen, um das Tagesgeschäft des Volunteer-Computing-Dienstes zu entwickeln und zu unterstützen. Er entwickelte eine nachhaltige Plattform für VM-Anwendungen und verwaltete die Dienst-Konsolidierung mit BOINC und HTCondor.

    Nils Høimyr: Ich engagiere mich seit 2011 bei LHC@home, als ich gebeten wurde, die Infrastruktur für Test4Theory und LHC@home in meiner Abteilung unterzubringen. Dank der harten Arbeit eines enthusiastischen Teams hat Test4Theory erfolgreich Virtualisierung für Volunteer Computing eingesetzt. LHC@home führte seit 2004 das Beschleunigerphysik-Subprojekt Sixtrack durch und konnte nun auch weitere physikalische Anwendungen, welche in CernVM laufen, aufnehmen. Wir haben auch die LHC-Experimente an Bord geholt und die Herausforderungen und Möglichkeiten, die Volunteer Computing bietet, haben mich dazu gebracht, die Rolle des LHC@home-Projektleiters zu übernehmen. Dank der Bemühungen von Freiwilligen kann die wissenschaftliche Gemeinschaft am CERN nun viel mehr Simulationen durchführen als sie mit unseren lokalen Rechenzentren möglich gewesen wären, welche sich vollständig der Auswertung von LHC-Daten widmen. Es ist ein Vergnügen, mit den Wissenschaftlern zusammenzuarbeiten, welche die Simulationen bereitstellen, und auch mit anderen Volunteer-Computing-Projekten auf der BOINC-Plattform zusammenzuarbeiten. Wir möchten all den Freiwilligen, die zu LHC@home beitragen, herzlich danken, insbesondere denen, die uns bei der Fehlerbeseitigung und dem Beta-Test von Anwendungen helfen.

    Nikolas Giannakis: Ich bin im Jahr 2017 als Doktorand zum LHC@home-Team gestoßen, meine Entwicklungen beinhalten einen Prototypen eines WebRTC-Clients für BOINC. Die Möglichkeit, für ein Projekt wie LHC@home zu arbeiten, hat mir eine Vorstellung gegeben, worum es bei Computerwissenschaften gehen sollte. Es sollte um Kooperation, Großzügigkeit und das Streben nach Größe gehen. In dem großartigen Laboratorium, welches das CERN ist, wurde dieses Projekt erschaffen, um das Sprichwort, dass die Reise wichtiger ist als das Ziel, mit Bedeutung zu füllen. Das vierbillionste Ereignis, das für Test4Theory berechnet wurde, ist ein Paradebeispiel. Das Berechnen dieser Ereignisse hat Leute aus sehr verschiedenen Teams zusammengebracht und insbesondere Leuten mit einer Leidenschaft für Wissenschaft eine Möglichkeit gegeben, zum größten jemals durchgeführten Experiment beizutragen.

    14. März 2018

    Originaltexte:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    Theory application reaches 4 TRILLION events today !!
    LHC@home's Theory application today passed the milestone of 4 TRILLION simulated events. This project, under its earlier name "Test4Theory", began production in 2011 and was the first BOINC project to use Virtual Machine technology (based on CERN's CernVM system).

    We will be publishing some more details for you on the LHC@home and CERN websites over the coming days. Here is a first release:

    http://lhcathome.web.cern.ch/article...rillion-events

    Many thanks to all our volunteers for enabling this achievement !
    14 Mar 2018, 5:37:23 UTC
    http://lhcathome.web.cern.ch/article...rillion-events
    von Veröffentlicht: 17.03.2018 17:05
    1. Kategorien:
    2. Projekte

    Nach knapp zwei Monaten ist Scott Brown den Weltrekord für verallgemeinerte Cullen-Primzahlen wieder los, allerdings haben ihm nur gut 9 Stunden gefehlt, um sich selbst zu übertreffen. Der Fund der ersten bekannten verallgemeinerten Cullen-Primzahl zur Basis b=41 schließt die Arbeit an dieser Basis ab.

    Weiterer Weltrekord für verallgemeinerte Cullen-Primzahlen!
    Am 12. März 2018 um 0:54:40 MEZ, hat PrimeGrids Generalized Cullen/Woodall Prime Search die größte bekannte verallgemeinerte Cullen-Primzahl gefunden:

    1806676*41^1806676+1

    Verallgemeinerte Cullen-Zahlen haben die Form n*b^n+1. Verallgemeinerte Cullen-Zahlen, die prim sind, werden verallgemeinerte Cullen-Primzahlen genannt. Für weitere Informationen siehe bitte "Cullen prime" im Primzahl-Glossar (engl.).

    Die Primzahl hat 2913785 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 1 für verallgemeinerte Cullen-Primzahlen und Platz 27 insgesamt.

    Die Basis 41 war eine von zwölf Basen bis b=121 ohne bekannte verallgemeinerte Cullen-Primzahl, die von PrimeGrid untersucht werden. Die verbleibenden Basen sind 13, 25, 29, 47, 49, 55, 69, 73, 101, 109 und 121.

    Die Entdeckung gelang Hiroyuki Okazaki (zunewantan) aus Japan mit einem Intel Xeon E5-2670 @ 2,60 GHz mit 4 GB RAM unter Linux. Dieser Rechner brauchte etwa 7 Stunden 13 Minuten für den Primalitätstest mit LLR im Multithread-Modus. Hiroyuki ist Mitglied des Teams Aggie The Pew.

    Die Primzahl wurde am 12. März 2018 um 10:07:23 MEZ von Scott Brown (Scott Brown) aus den Vereinigten Staaten mit einer Intel-CPU @ 2,30 GHz mit 16 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 15 Stunden 22 Minuten für den Primalitätstest mit LLR. Auch Scott ist Mitglied des Teams Aggie The Pew.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    17.03.2018 | 16:44:44 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/
    Another World Record Generalized Cullen Prime!
    On 11 March 2018, 23:54:40 UTC, PrimeGrid’s Generalized Cullen/Woodall Prime Search found the largest known Generalized Cullen prime:

    1806676*41^1806676+1

    Generalized Cullen numbers are of the form: n*b^n+1. Generalized Cullen numbers that are prime are called Generalized Cullen primes. For more information, please see “Cullen prime” in The Prime Glossary.

    The prime is 2,913,785 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 1st for Generalized Cullen primes and 27th overall.

    Base 41 was one of 12 prime-less Generalized Cullen bases below b=121 that PrimeGrid is searching. The remaining bases are 13, 25, 29, 47, 49, 55, 69, 73, 101, 109 & 121.

    The discovery was made by Hiroyuki Okazaki (zunewantan) of Japan using an Intel(R) Xeon(R) E5-2670 CPU @ 2.60GHz with 4GB RAM, running Linux. This computer took about 7 hours and 13 minutes to complete the primality test using multithreaded LLR. Hiroyuki is a member of the Aggie The Pew team.

    The prime was verified on 12 March 2018 09:07:23 UTC by Scott Brown (Scott Brown) of the United States using an Intel(R) CPU @ 2.30GHz with 16GB RAM, running Windows 10 Professional Edition. This computer took about 15 hours 22 minutes to complete the primality test using LLR. Scott is also a member of the Aggie The Pew team.

    For more details, please see the official announcement.
    17 Mar 2018 | 15:44:44 UTC
    von Veröffentlicht: 17.03.2018 07:50
    1. Kategorien:
    2. Projekte

    Bis Anfang der Woche wurden einige fehlerhafte WUs verteilt, von denen einige noch im Umlauf sein könnten. Diese brechen sofort mit Berechnungsfehler ab, sodass keine Rechenzeit verloren geht. Wer in den letzten Tagen einige solcher Fehler beobachtet hat, braucht sich also keine Sorgen zu machen.

    Neuigkeiten
    Liebe Teilnehmer von VGTU project@Home,

    wir arbeiten beständig an der aktuellen Forschungsaufgabe.

    Obwohl ihr keine Änderungen an den Anwendungen seht (die Versionsnummer bleibt gleich), werden die Aufgabenerzeugung und die Assimilierung/Verarbeitung der Ergebnisse von Zeit zu Zeit verändert.

    Bei einer dieser Änderungen ist ein Problem bei der Erzeugung von Aufgaben (WUs) entstanden. Wir denken, dass wir dieses Problem am Montag, den 12. März, behoben haben. Es scheint keine Probleme mit den seither erzeugten Aufgaben/WUs zu geben. Es könnten jedoch noch einige ältere, fehlerhafte WUs im Umlauf sein... wir wissen nicht genau, welche wir abbrechen müssen. Doch seid unbesorgt, es geht keine Rechenzeit verloren. Die Anwendung startet gar nicht und erzeugt nach einigen Versuchen den Fehler ERR_TOO_MANY_EXITS.

    Die gute Nachricht ist, dass wir mit dem Schreiben eines Entwurfs für eine Veröffentlichung über die aktuelle Forschung mit unserem BOINC-Projekt begonnen haben.


    Mit freundlichen Grüßen,
    das Projekt-Team.
    16.03.2018, 10:48:45 MEZ

    Originaltext:
    Zitat Zitat von https://boinc.vgtu.lt/vtuathome/
    News
    Dear VGTU project@Home users,

    We are constantly working on the current research problem.

    Although, you don’t see changes in the client applications (versions are the same), generation of work and assimilation/processing of the results are changed from time to time.

    After one of such changes, the bug was introduced into generation of tasks (workunits). We believe that we have fixed this bug in work generator on Monday, March 12. It seems that there are no problems with the tasks/workunits generated since then. However, some older erroneous work units may still be there… We don’t know exactly which to cancel them. Don’t worry, no time is lost: application simply fails to start and generates ERR_TOO_MANY_EXITS error after some number of trials.

    The good news is that we have started to write a draft of the paper on the current research using our BOINC project.


    With best regards,
    The Project Team.
    16 Mar 2018, 9:48:45 UTC
    von Veröffentlicht: 17.03.2018 07:25
    1. Kategorien:
    2. Projekte

    Die vor zwei Monaten erstellte Sammlung graphischer Darstellungen der gefundenen ODLS-Beziehungen wurde erweitert:

    Neue ODLS-Graphen veröffentlicht!
    Liebe Cruncher!

    Wir begrüßen den Frühling (und 7 Monate Arbeit des Projektes) mit der Veröffentlichung neu entdeckter Graphen von euch gefundener orthogonaler diagonaler lateinischer Quadrate, siehe die Abbildungen 19-27.

    Derzeit arbeiten wir an graphischer Darstellung und Vergleichsmöglichkeiten, welche die Auswertung der Ergebnisse ermöglichen werden. Dadurch wird es auch möglich, eine Idee von Michael H.W. Weber umzusetzen, dass die eigenen Entdeckungen auf der Projektseite angezeigt werden.

    Danke für eure Teilnahme und frohes Crunchen!
    11.03.2018, 14:38:00 MEZ

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    New graphs of ODLSs published!
    Dear crunchers!

    We welcome spring (and 7 months of the project's work) by publishing newly discovered graphs of ODLSs found by you, figures 19-27.

    Currently we are working on graph representation and comparison methods, which will allow to analyze the results. This will also allow to implement an idea proposed by Michael H.W. Weber to display personal discoveries on the project website.

    Thank you for participation, and happy crunching!

    [...]

    11 Mar 2018, 13:38:00 UTC
    von Veröffentlicht: 15.03.2018 21:25
    1. Kategorien:
    2. Projekte

    Der laufende Monat ist schon wieder halb vorbei, dennoch soll ein Blick auf alle Primzahlfunde des vergangenen Monats nicht fehlen. Dank der Tour de Primes war der Februar für Primzahlenjäger sehr erfolgreich, wie die untenstehende Grafik eindeutig belegt. Außer den 256 Top-5000-Funden der Tour de Primes gab es noch 31 kleinere Funde, sodass der Februar insgesamt 287 Primzahlen zu Tage förderte. SETI.Germany stellte dabei 24-mal den Erstfinder und 15-mal den Doublechecker.

    Trotz der extrem vielen Funde gehörte lediglich eine Primzahl zu den 100 größten bekannten Primzahlen und wurde entsprechend in den Projektnachrichten bekanntgegeben:
    • 4246258^262144+1, 1737493 Dezimalstellen, gefunden von Robish (Team: Storm) aus Irland am 15.02.2018 um 03:15:40 MEZ, bestätigt von [B@P] Daniel (BOINC@Poland) aus Polen am 15.02.2018 um 03:18:23 MEZ


    Die Megaprimzahlfunde konzentrierten sich auf die Subprojekte MEGA und GFN-17-Mega, auf die stolze 15 Funde entfielen:
    • Die 1042790-stellige Proth-Primzahl 641*2^3464061+1 wurde am 01.02.2018 um 10:03:35 MEZ von vaughan (AMD Users) aus Australien mit einem Intel Core i7-7700HQ gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 24 Minuten benötigt wurden. Die Bestätigung erfolgte am 01.02.2018 um 16:09:33 MEZ durch Krzysiak_PL_GDA (BOINC@Poland) aus Polen mit einem Intel Xeon E5-2680 v2, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 1 Stunde 13 Minuten benötigt wurden.

    • Die 1007554-stellige verallgemeinerte Fermat-Primzahl 48643706^131072+1 wurde am 02.02.2018 um 9:46:40 MEZ von [B@P] Daniel (BOINC@Poland) aus Polen mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-7700 gefunden, wobei für den PRP-Test mit Genefer 7 Minuten 34 Sekunden benötigt wurden. Die Bestätigung erfolgte am 02.02.2018 um 9:49:15 MEZ durch eXaPower aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i5-4440S, wobei für den PRP-Test mit Genefer 7 Minuten 37 Sekunden benötigt wurden.

    • Die 1008015-stellige verallgemeinerte Fermat-Primzahl 49038514^131072+1 wurde am 10.02.2018 um 19:46:43 MEZ von Plšák Ráďa (Czech National Team) aus Tschechien mit einer NVIDIA GeForce GTX 1050 Ti in Verbund mit einem AMD Ryzen 5 1600X gefunden, wobei für den PRP-Test mit Genefer 16 Minuten 48 Sekunden benötigt wurden. Die Bestätigung erfolgte am 10.02.2018 um 19:49:58 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem AMD Ryzen 7 1700X, wobei für den PRP-Test mit Genefer 7 Minuten 21 Sekunden benötigt wurden.

    • Die 1008075-stellige verallgemeinerte Fermat-Primzahl 49090656^131072+1 wurde am 12.02.2018 um 0:22:10 MEZ von eXaPower aus den Vereinigten Staaten mit einer NVIDIA GeForce GT 650M in Verbund mit einem Intel Core i5-3230M gefunden, wobei für den PRP-Test mit Genefer 1 Stunde 18 Minuten 51 Sekunden benötigt wurden. Die Bestätigung erfolgte am 12.02.2018 um 13:40:52 MEZ durch xXUnRealXx aus Polen mit einer AMD Radeon RX 480 in Verbund mit einem AMD FX-8120, wobei für den PRP-Test mit Genefer 13 Minuten 31 Sekunden benötigt wurden.

    • Die 1008232-stellige verallgemeinerte Fermat-Primzahl 49225986^131072+1 wurde am 15.02.2018 um 2:20:28 MEZ von polarbeardj (Crunching@EVGA) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem AMD Ryzen 7 1700X gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 47 Sekunden benötigt wurden. Die Bestätigung erfolgte am 15.02.2018 um 2:26:18 MEZ durch Josef Schlereth (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem Intel Core i5-7600K, wobei für den PRP-Test mit Genefer 7 Minuten 58 Sekunden benötigt wurden.

    • Die 1008252-stellige verallgemeinerte Fermat-Primzahl 49243622^131072+1 wurde am 15.02.2018 um 11:56:42 MEZ von mackerel (Aggie The Pew) aus dem Vereinigten Königreich mit einer NVIDIA GeForce GTX 980 Ti in Verbund mit einem Intel Core i7-7800X gefunden, wobei für den PRP-Test mit Genefer 10 Minuten 21 Sekunden benötigt wurden. Die Bestätigung erfolgte am 15.02.2018 um 18:48:59 MEZ durch Spear (Storm) aus Irland mit einer NVIDIA GeForce GT 1030 in Verbund mit einem Intel Core i7-5960X, wobei für den PRP-Test mit Genefer 34 Minuten 58 Sekunden benötigt wurden.

    • Die 1008354-stellige verallgemeinerte Fermat-Primzahl 49331672^131072+1 wurde am 17.02.2018 um 6:01:29 MEZ von [AF>Libristes]cguillem (L'Alliance Francophone) aus Frankreich mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem AMD Ryzen 7 1800X gefunden, wobei für den PRP-Test mit Genefer 11 Minuten 7 Sekunden benötigt wurden. Die Bestätigung erfolgte am 17.02.2018 um 16:49:36 MEZ durch Corla99 [Lombardia] (BOINC.Italy) aus Italien mit einer AMD Radeon RX 560 in Verbund mit einem AMD Ryzen 7 1800X, wobei für den PRP-Test mit Genefer 34 Minuten 33 Sekunden benötigt wurden.

    • Die 1008430-stellige verallgemeinerte Fermat-Primzahl 49397682^131072+1 wurde am 18.02.2018 um 11:51:52 MEZ von Reggie aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700K gefunden, wobei für den PRP-Test mit Genefer 10 Minuten 54 Sekunden benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 12:34:52 MEZ durch kittyjia (Team China) aus China mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Xeon E3-1230 V2, wobei für den PRP-Test mit Genefer 14 Minuten 21 Sekunden benötigt wurden.

    • Die 1047521-stellige Proth-Primzahl 701*2^3479779+1 wurde am 19.02.2018 um 2:23:12 MEZ von tng* (Sicituradastra.) aus den Vereinigten Staaten mit einem Intel Core i7-6700 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 16 Minuten benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 2:26:48 MEZ durch composite aus Kanada mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR auf 7 Threads etwa 14 Minuten benötigt wurden.

    • Die 1047506-stellige Proth-Primzahl 813*2^3479728+1 wurde am 19.02.2018 um 2:44:59 MEZ von [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem Intel Xeon E5-2699C v4 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 36 Minuten benötigt wurden. Die Bestätigung erfolgte am 19.02.2018 um 4:02:33 MEZ durch Matthew D Doenges aus den Vereinigten Staaten mit einem Intel Core i7-6700, wobei für den Primalitätstest mit LLR etwa 2 Stunden 52 Minuten benötigt wurden.

    • Die 1008582-stellige verallgemeinerte Fermat-Primzahl 49530004^131072+1 wurde am 20.02.2018 um 22:30:50 MEZ von DeleteNull (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1070 in Verbund mit einem Intel Xeon E5-2670 0 gefunden, wobei für den PRP-Test mit Genefer 8 Minuten 20 Sekunden benötigt wurden. Die Bestätigung erfolgte am 20.02.2018 um 22:34:21 MEZ durch k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 980 in Verbund mit einem Intel Xeon X5680, wobei für den PRP-Test mit Genefer 12 Minuten benötigt wurden.

    • Die 1048098-stellige Proth-Primzahl 1149*2^3481694+1 wurde am 21.02.2018 um 4:11:38 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i9-7900X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 27 Minuten benötigt wurden. Die Bestätigung erfolgte am 21.02.2018 um 5:28:21 MEZ durch [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem AMD Ryzen 5 1600X, wobei für den Primalitätstest mit LLR etwa 1 Stunde 32 Minuten benötigt wurden.

    • Die 1049771-stellige Proth-Primzahl 699*2^3487253+1 wurde am 25.02.2018 um 23:49:33 MEZ von Scott Brown (Aggie The Pew) aus den Vereinigten Staaten mit einem Intel Xeon E5-2670 v2 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 50 Minuten benötigt wurden. Die Bestätigung erfolgte am 03.03.2018 um 22:35:54 MEZ durch Puppauz (WinTricks.it Italian Team) aus Italien mit einem Intel Core i3-6100, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1008912-stellige verallgemeinerte Fermat-Primzahl 49817700^131072+1 wurde am 26.02.2018 um 15:08:54 MEZ von k4m1k4z3 (Overclock.net) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 Ti in Verbund mit einem Intel Core i7-6700K gefunden, wobei für den PRP-Test mit Genefer 5 Minuten 50 Sekunden benötigt wurden. Die Bestätigung erfolgte am 26.02.2018 um 15:14:39 MEZ durch yellingdog (Rose-Hulman Institute of Technology) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-5820K, wobei für den PRP-Test mit Genefer 7 Minuten 28 Sekunden benötigt wurden.

    • Die 1050242-stellige Proth-Primzahl 753*2^3488818+1 wurde am 27.02.2018 um 4:12:21 MEZ von 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-6800K gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 34 Minuten benötigt wurden. Die Bestätigung erfolgte am 27.02.2018 um 5:13:36 MEZ durch [AF>Amis des Lapins] dthonon (L'Alliance Francophone) mit einem Intel Xeon E5-2699C v4, wobei für den Primalitätstest mit LLR etwa 1 Stunde 36 Minuten benötigt wurden.


    Die 271 kleineren Primzahlfunde verteilen sich wie folgt:
    • Proth Prime Search (PPS): 5 Funde im Bereich 2563709 ≤ n ≤ 2567718 (771757-772963 Dezimalstellen)
    • Proth Prime Search Extended (PPSE): 169 Funde im Bereich 1466326 ≤ n ≤ 1484379 (441413-446846 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull, drei Erstfunde von [SG]KidDoesCrunch, zwei Erstfunde von No_Name, ein Erstfund und drei Doublechecks von dh1saj, ein Erstfund und zwei Doublechecks von ID4, je ein Erstfund und ein Doublecheck von Freezing und pschoefer, je ein Erstfund von boss, Flow und joe carnivore sowie je ein Doublecheck von [SGa]HeNiNnG, pan2000 und zipzap [SG-2W]
    • Sophie Germain Prime Search (SGS): 19 Funde im Bereich 3885213745497 ≤ k ≤ 3902970380367 (388342 Dezimalstellen), darunter ein Erstfund von axels
    • Generalized Fermat Prime Search (n=15): 12 Funde im Bereich 85962194 ≤ b ≤ 86852980 (259992-260139 Dezimalstellen)
    • Generalized Fermat Prime Search (n=16): 64 Funde im Bereich 29723118 ≤ b ≤ 36127768 (489757-495311 Dezimalstellen), darunter zwei Erstfunde von Josef Schlereth, ein Erstfund und zwei Doublechecks von ID4, ein Erstfund und ein Doublecheck von pschoefer sowie je ein Erstfund von dh1saj, Freezing und joe carnivore
    • Generalized Fermat Prime Search (n=17 low): 2 Funde: 11778792^131072+1 (926824 Dezimalstellen), 11876066^131072+1 (927292 Dezimalstellen)



    Seite 51 von 126 Erste ... 41 49 50 51 52 53 61 101 ... Letzte
Single Sign On provided by vBSSO