• SETI.Germany News RSS-Feed

    von Veröffentlicht: 30.04.2017 01:00
    1. Kategorien:
    2. BOINC Pentathlon

    Back to the Pentathlon pages



    Cosmology@Home

    Announcement of the 1st project of the BOINC Pentathlon in the Marathon discipline


    The project for the Marathon of the eighth BOINC Pentathlon is:
    Cosmology@Home (http://www.cosmologyathome.org/)

    All credits granted between
    05 May 2017, 0.00 (UTC) and
    19 May 2017, 0.00 (UTC) will be taken into the BOINC Pentathlon validation. Please note that pending credits cannot be taken into account! The statistics for this project can be found at
    https://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=1&lang=en.

    Note: During the Pentathlon, the project will at times distribute work units for the planck_param_sims subproject which serve to improve the results for a paper in the review process. It would be great if the additional computing power due to the Pentathlon could help to finish this work as fast as possible. Therefore, we encourage you to run preferably work units of this subproject whenever they are available. But, of course, credits from all subprojects count toward the Pentathlon.

    Good luck to all Pentathlon participants! Have fun crunching this project and chasing these medals:




    Annonce du 1er projet dans la discipline Marathon du BOINC Pentathlon


    Le projet pour le Marathon du huitième BOINC Pentathlon est:
    Cosmology@Home (http://www.cosmologyathome.org/)

    Tous les crédits de ce projet qui seront accordés entre le
    05/05/2017 à 0h00 (UTC) et le
    19/05/2017 à 0h00 (UTC) entrent dans le résultat du BOINC Pentathlon. N’oubliez pas que les crédits en suspens (pending) ne pourront pas être pris en compte! Vous trouverez les statistiques pour ce projet sur cette page:
    http://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=1&lang=fr

    Remarque: Pendant le Pentathlon, le projet distribuera par moments des UT du sous-projet planck_param_sims, qui doivent fournir de meilleurs résultats pour une publication en cours d'évaluation. Ce serait extraordinaire si la puissance de calcul supplémentaire apportée par le Pentathlon pouvait aider à terminer ce travail rapidement. C'est pourquoi nous vous appelons à calculer de préférence des UT de ce sous-projet, dans la mesure où elles sont disponibles. Mais bien sûr, tous les sous-projets comptent pour le Pentathlon.

    Bonne chance à tous les participants du Pentathlon! Amusez-vous bien à cruncher sur ce projet et à chasser ces médailles:




    Bekanntgabe des 1. Projekts in der Marathon-Disziplin beim BOINC-Pentathlon


    Das Projekt für den Marathon des achten BOINC-Pentathlons ist:
    Cosmology@Home (http://www.cosmologyathome.org/)

    In die Wertung des BOINC-Pentathlons gehen alle Credits ein, die zwischen dem
    05.05.2017 um 0:00 Uhr (UTC) und
    19.05.2017 um 0:00 Uhr (UTC) gutgeschrieben werden. Beachtet bitte, dass ausstehende (pending) Credits nicht berücksichtigt werden können! Die Statistik zu dem Projekt ist zu finden auf
    http://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=1&lang=de.

    Hinweis: Das Projekt wird während des Pentathlons zeitweise Workunits des Subprojekts planck_param_sims verteilen, welche verbesserte Ergebnisse für eine im Begutachtungsprozess befindliche Veröffentlichung liefern sollen. Es wäre großartig, wenn die zusätzliche Rechenleistung durch den Pentathlon helfen würde, diese Arbeit schnell zu erledigen. Daher rufen wir dazu auf, sofern verfügbar bevorzugt Workunits dieses Subprojekts zu bearbeiten. Für den Pentathlon gewertet werden aber natürlich alle Subprojekte.

    Wir wünschen allen Teilnehmern viel Glück beim Pentathlon! Viel Spaß beim Crunchen dieses Projekts und der Jagd nach diesen Medaillen:
    von Veröffentlicht: 30.04.2017 01:00
    1. Kategorien:
    2. BOINC Pentathlon

    Back to the Pentathlon pages



    World Community Grid
    OpenZika

    Announcement of the 2nd project in the discipline City Run


    The 2nd project of the BOINC Pentathlon in the discipline City Run is:
    OpenZika (https://www.worldcommunitygrid.org/)

    All credits granted between
    05 May 2017, 0.00 (UTC) and
    10 May 2017, 0.00 (UTC) will be taken into the BOINC Pentathlon validation. Please note that pending credits cannot be taken into account! The statistics for this project can be found at
    http://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=2&lang=en.

    Note: Only work units of the OpenZika subproject are considered, the statistics use WCG points (= BOINC Credits x7). The project kindly provides hourly stats updates via a team challenge (all teams that participate in the Pentathlon will be signed up automatically). The updates run at 30 minutes after the hour (no updates at 0:30 UTC and 1:30 UTC).

    Have fun crunching this project and chasing these medals:




    Annonce du 2e projet dans la discipline Course Urbaine


    Le 2e projet du BOINC Pentathlon dans la discipline Course Urbaine est le suivant:
    OpenZika (https://www.worldcommunitygrid.org/)

    Tous les crédits de ce projet qui seront accordés entre le
    05/05/2017 à 0h00 (UTC) et le
    10/05/2017 à 0h00 (UTC) entrent dans le résultat du BOINC Pentathlon. N’oubliez pas que les crédits en suspens (pending) ne pourront pas être pris en compte! Vous trouverez les statistiques pour ce projet sur cette page:
    http://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=2&lang=fr

    Remarque: Uniquement des UT du sous-projet OpenZika sont comptabilisées; les statistiques seront tenues en points WCG (= crédits BOINC x7). Le projet a la gentillesse de proposer des statistiques actualisées toutes les heures sous forme d'un challenge d'équipe (toutes les équipes inscrites au Pentathlon seront inscrites automatiquement à ce challenge). La mise à jour se fait toujours 30 minutes après l'heure pleine (pas de mise à jour à 0h30 UTC et à 1h30 UTC).

    Amusez-vous bien à cruncher sur ce projet et à chasser ces médailles:




    Bekanntgabe des 2. Projekts in der Disziplin Stadtlauf


    Das 2. Projekt des BOINC-Pentathlons in der Disziplin Stadtlauf ist:
    OpenZika (https://www.worldcommunitygrid.org/)

    In die Wertung des BOINC-Pentathlons gehen alle Credits ein, die zwischen dem
    05.05.2017 um 0:00 Uhr (UTC) und
    10.05.2017 um 0:00 Uhr (UTC) gutgeschrieben werden. Beachtet bitte, dass ausstehende (pending) Credits nicht berücksichtigt werden können! Die Statistik zu dem Projekt ist zu finden auf
    http://www.seti-germany.de/boinc_pentathlon/statistiken/challenge.php?challengeid=2&lang=de.

    Hinweis: Nur Workunits des Subprojekts OpenZika werden gewertet, in den Statistiken werden WCG-Punkte (= BOINC Credits x7) gezählt. Das Projekt bietet freundlicherweise stündlich aktualisierte Statistiken in Form einer Team-Challenge an (alle für den Pentathlon angemeldeten Teams werden automatisch dafür angemeldet). Die Aktualisierung findet jeweils 30 Minuten nach der vollen Stunde statt (keine Aktualisierung um 0:30 UTC und 1:30 UTC).

    Viel Spaß beim Crunchen dieses Projekts und der Jagd nach diesen Medaillen:
    von Veröffentlicht: 29.04.2017 23:50
    1. Kategorien:
    2. Projekte

    Die Veröffentlichung der ersten Ergebnisse des Projekts sowie der Beginn des nächsten Experiments wurden angekündigt:

    Neues Experiment kommt bald
    Die Ergebnisse des ersten Experiments werden in einer Publikation diskutiert, welche für die BOINC:FAST'2017-Konferenz eingereicht werden wird.
    Wir arbeiten auch an dem nächsten Experiment, welches bald starten wird.
    29.04.2017, 17:39:05 MEZ

    Originaltext:
    Zitat Zitat von http://www.acousticsathome.ru/boinc/
    New experiment is coming soon
    Results of the first experiment will be discussed in a paper, which will be submitted to the
    BOINC:FAST'2017 conference.
    We also work on the next experiment, which will be launched soon.
    29 Apr 2017, 16:39:05 UTC
    von Veröffentlicht: 29.04.2017 23:40
    1. Kategorien:
    2. Projekte

    Als Nachschlag zu der im letzten Jahr eingereichten Publikation werden in der nächsten Zeit einige weitere planck_param_sims-WUs verteilt:

    Planck-Satellit-Auswertung Teil 2
    Hallo Leute. Im letzten Jahr habt ihr dabei geholfen, Ergebnisse des Planck-Satelliten auszuwerten, indem eure Rechner Millionen von Simulationen unseres Universums durchkämmt haben, um uns dabei zu helfen zu verstehen, ob einige Besonderheiten in den Planck-Daten nur statistische Ausreißer oder aber Hinweise auf eine neue Entdeckung sind. Die Wissenschaft hinter diesen Aufgaben wurde hier etwas detaillierter beschrieben und eure Ergebnisse ermöglichten es uns, eine Publikation zu schreiben, welche diese Fragen erforscht (die ich in einem künftigen Beitrag zusammenfassen werde). Nebenbei hatten wir auch einen Wettbewerb, wer die meiste Rechenleistung für diese Aufgaben bereitstellt, und haben schließlich den Gewinnern MaDdCoW, 25000ghz[Lombardia], Rally1965 und dem Team BOINC.Italy in der Publikation gedankt.

    Für diejenigen, die nicht wissen, wie das Veröffentlichen funktioniert: Zunächst wird die Publikation eingereicht, dann antwortet ein Gutachter mit Kommentaren und Änderungswünschen, dann antworten die Autoren darauf und schließlich wird die Publikation angenommen oder abgelehnt. In dieser Phase befinden wir uns gerade, wir arbeiten an unserer Antwort. Als Teil der Antwort wäre es hilfreich, einige weitere Simulationen auszuwerten, daher werden wir ab heute und für mindestens ein paar Wochen einen Haufen weiterer Planck-Aufgaben verteilen.

    Danke nochmals an alle Teilnehmer und frohes Crunchen!
    29.04.2017, 23:15:46 MEZ

    Originaltext:
    Zitat Zitat von http://www.cosmologyathome.org/
    Planck satellite analysis part 2
    Hi folks. Last year, you guys helped analyze results from the Planck satellite by having your computers comb through millions of simulations of our universe, to help us understand if some curiosities in the Planck data were just statistical flukes, or if they were hints of a new discovery. In a bit more detail, the science behind these jobs was described here, and your results allowed us to write a paper which explored these questions (which we'll summarize in a future post). Along the way we also had a contest for who contributed the most computing power to these jobs, and we ultimately thanked winners MaDdCoW, 25000ghz[Lombardia], Rally1965 and team BOINC.Italy in the paper.

    For those that aren't familiar with the way publication works, first a paper is submitted, then a referee replies with comments and requests for revisions, then the authors respond and the paper is eventually accepted or rejected. This is the stage we're currently in now, working on this response. As part of the response, it would be useful to analyze some more simulations, so starting today and continuing at least for a few weeks, we'll be adding back a bunch more Planck jobs.

    Thanks again to all who contribute and happy crunching!
    29 Apr 2017, 22:15:46 UTC
    von Veröffentlicht: 29.04.2017 21:30
    1. Kategorien:
    2. Projekte

    Nachdem es schon länger mit Generalized Cullen/Woodall Sieve vorbereitet wurde, ist das Subprojekt Generalized Cullen/Woodall Prime Search LLR nun eröffnet. Gesucht werden aktuell Primzahlen der Form nb^n+1 mit n + 2 > b für 14 verschiedene b > 2. Zunächst werden Doublechecks der früher über PRPNet durchgeführten Tests vorgenommen, sodass es sich anfangs um relativ kleine WUs handelt.

    Neues Subprojekt: GCW-LLR
    Wir haben ein neues Subprojekt eröffnet, GCW-LLR. Es ist ein reines CPU-Projekt. Die Aufgaben sind zu Beginn sehr klein, aber ich gehe davon aus, dass die Größe recht schnell zunehmen wird. Es gibt einen neuen Satz Badges für das Subprojekt GCW-LLR.

    Siehe bitte diesen Thread im GCW-Forum für weitere Einzelheiten und zur Diskussion.
    29.04.2017 | 17:05:11 MEZ

    Originaltext:
    Zitat Zitat von http://www.primegrid.com/
    New sub-project: GCW-LLR
    We have opened up a new subproject, GCW-LLR. It is a CPU-only project. Task sizes are initially very small, but I expect them to grow in size fairly rapidly. There is a new set of badges for the GCW-LLR project.

    Please see this thread in the GCW forum for more details and discussion.
    29 Apr 2017 | 16:05:11 UTC
    von Veröffentlicht: 28.04.2017 07:40
    1. Kategorien:
    2. Projekte

    Ab sofort werden auch Simulationen für das LHCb-Experiment über LHC@home verteilt (das zugehörige Testprojekt nannte sich vor der Zusammenführung aller LHC-Projekte Beauty@LHC):

    LHCb-Anwendung im Produktivbetrieb
    Wir freuen uns, bekanntzugeben, dass die LHCb-Anwendung jetzt die Beta-Phase verlassen hat und im Produktivbetrieb auf LHC@home ist. Danke euch allen für euren wertvollen Beitrag.

    Wir sind dankbar, euch alle als Teil unseres Projektes zu haben.

    Bitte nutzt das Forum zur LHCb-Anwendung im Problemfall oder für Rückmeldungen.

    Vielen Dank,
    Cinzia
    27.04.2017, 8:50:51 MEZ


    Das Projekt hat auch ein wenig aufgerüstet, um größeren Andrang bei den Dateitransfers vertragen zu können:

    Neuer Dateiserver
    Wir haben einen neuen Dateiserver für Downloads und Uploads hinzugefügt, um mit höherer Last besser umgehen zu können. Sollte es Fehler beim Herunter- oder Hochladen von Aufgaben geben, meldet dies bitte im Forum.

    Danke für eure Teilnahme an LHC@home!
    26.04.2017, 15:00:48 MEZ


    Originaltexte:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    LHCb application is in production
    We are very happy to announce that the LHCb application is out of beta and is now in production mode on LHC@home. Thank you all for your precious contribution.

    We are grateful to have you all as part of our project.

    Please, refer to the LHCb application forum for any problem or feedback.

    Thanks a lot
    Cinzia
    27 Apr 2017, 7:50:51 UTC
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    New file server
    We have added a new file server for download/upload to scale better with higher load. If there should be errors with download or upload of tasks, please report on the MBs.

    Thanks for contributing to LHC@home!
    26 Apr 2017, 14:00:48 UTC
    von Veröffentlicht: 26.04.2017 16:45
    1. Kategorien:
    2. Projekte

    Bereits seit einem Monat verschickt das Projekt Enigma@Home keine neuen WUs mehr, inzwischen wurde dazu folgende Erklärung gepostet:

    Weshalb die WU-Erzeugung angehalten wurde
    Ich habe die Erzeugung neuer WUs angehalten, weil es meiner Meinung nach nicht sinnvoll ist, die Serie fortzusetzen, welche mit dem originalen ("Marine"-)Wörterbuchsatz läuft, da aktualisierte Wörterbuchsätze bereits mit einer ähnlichen Zahl von Neustarts fehlgeschlagen sind.

    Meiner Meinung nach ist es sinnvoller, es mit einem anderen Wörterbuchsatz und einer verbesserten Anwendung zu versuchen.
    Beides benötigt jedoch großere Aktualisierungen auf der Serverseite - aus Leistungsgründen habe ich einige ursprünglich vorhandene Funktionalitäten entfernt und muss sie nun wieder hinzufügen. Das wird 2-4 Wochen dauern, da mir mein Beruf sehr wenig Freizeit lässt. Ich werde auch die Datenbank von allen Überresten bereinigen, es sind immer noch 20000 WUs in der Datenbank, wahrscheinlich sind die meisten davon im Laufe der Zeit angesammelte kaputte WUs (es gab einmal einen plötzlichen Ausfall des SSD, auf dem sich das Dateisystem der Datenbank befindet, es wurde durch eine RAID5-Konfiguration ersetzt und die Daten wurden aus dem Backup wiederhergestellt, aber ~4500 WUs landeten in einem verkorksten Zustand). Ich werde einige Tage warten und dann alle verwaisten WUs entfernen.

    Außerdem werden alle (größeren) zukünftigen Serien in eine Gruppe kleinerer Unterserien aufgespalten. Während eine Serie läuft, benötigt der Server Zugriff auf alle zurückgemeldeten Ergebnisse, und wenn die Datenbank zu groß wird, leidet die Leistung darunter. Es erschwert auch die Erstellung von "Offline"-Backups wegen der Datenmenge im Datenbankauszug.

    In ein paar Tagen werde ich bisherige Ergebnisse zum Download bereitstellen, falls jemand einen Blick darauf werfen möchte.
    20.04.2017, 00:04:21 MEZ

    Originaltext:
    Zitat Zitat von http://www.enigmaathome.net/
    The reason why work generator is stopped
    I have stopped the work generator because IMO it does not make sense to continue the batch that runs with the original ("naval") dictionary set, where upgraded dictionary sets have already failed with similar number of target restarts.

    IMO it's better to try with another dictionary set and tweaked app.
    Both cases, however, require major upgrades on the server side - for performance reasons, I have removed some of the functionalities it originally had and now I have to add them back. It's going to take 2-4 weeks because my job leaves me very little spare time. I'm also going to clean the database from any leftovers, there are still over 20k workunits in the db, probably most of them are broken WUs that accumulated over time (at some point there was a sudden failure of SSD drive where the database filesystem is located, it was replaced by RAID5 setup with the data restored from backup, but ~4500 workunits/results ended in messed up state). I'll wait a few days and then all the orphaned workunits / results will be removed.

    Also, all future (larger) batches will be split into a group of smaller sub-batches. While the batch is running, the server requires access to all the results that were returned and if the database gets to big, performance suffers. It also makes creating 'offline' backups harder due to the amount of data in the db dump.

    In a few days I'll post downloadable results from the previous batches in case anyone wants to take a look.
    19 Apr 2017, 23:04:21 UTC
    von Veröffentlicht: 26.04.2017 08:35
    1. Kategorien:
    2. Projekte

    Sourcefinder, das Schwesterprojekt von POGS, testet ein Programm zum Identifizieren von Radioquellen und ist nun im Produktivbetrieb angekommen. Neue WUs werden jeden Mittwoch generiert, gelegentlicher Leerlauf ist nicht ausgeschlossen.

    Wir sind nun bereit für den Produktivbetrieb!
    Ja, der Tag ist gekommen. Sourcefinder wechselt endlich vom Test- in den Produktivbetrieb!

    Die meisten Fehler und Probleme, die wir während der Tests hatten, wurden so weit ausgebügelt, dass ich zufrieden bin.
    Alle Test-WUs wurden abgebrochen, alle WUs und Ergebnisse wurden archiviert.
    Wir werden nun mit dem Crunchen tatsächlicher Daten beginnen, 681 GB davon!
    Code:
    27G cubelets_1
    27G cubelets_2
    27G cubelets_3
    27G cubelets_4
    27G cubelets_5
    27G cubelets_6
    27G cubelets_7
    27G cubelets_8
    27G cubelets_9
    27G cubelets_10
    27G cubelets_11
    27G cubelets_12
    27G cubelets_13
    27G cubelets_14
    27G cubelets_15
    27G cubelets_16
    27G cubelets_17
    27G cubelets_18
    27G cubelets_19
    27G cubelets_20
    27G cubelets_21
    27G cubelets_22
    27G cubelets_23
    27G cubelets_24
    27G cubelets_25
    8.6G cubelets_26
    681G total
    Wir werden mit den Würfelchen (cubelets) 1 bis 4 beginnen.

    Ein paar weitere Bemerkungen:

    Ich habe einen neuen Dienst auf dem Server eingerichtet, welcher WUs und Ergebnisse, die älter als 2 Wochen sind, archiviert, daher werdet ihr diese Daten nicht auf der Webseite sehen.

    Während der Testphase ercrunchte Credits bleiben erhalten.

    Alle Produktiv-WUs werden unter Durchlauf 10 erfasst.

    Das WU-Limit pro Rechner wird erhöht. Ich plane, die entsprechenden Einstellungen zu ändern von
    Code:
    <max_wus_to_send>1</max_wus_to_send>
    <max_wus_in_progress>2</max_wus_in_progress>
    <max_ncpus>4</max_ncpus>
    zu
    Code:
    <max_wus_to_send>8</max_wus_to_send>
    <max_wus_in_progress>3</max_wus_in_progress>
    <max_ncpus>16</max_ncpus>
    Dadurch sollten auf jedem Rechner bis zu 16 CPUs verwendet werden und jeder Teilnehmer kann bis zu 3 WUs pro CPU gleichzeitig auf dem Rechner haben. Die maximale Zahl WUs, die ein Client gleichzeitig haben kann, beträgt nun also 48; achtet darauf, dass ihr diese auch alle rechtzeitig berechnen könnt!
    Außerdem können nun bei jeder Scheduleranfrage bis zu 8 WUs gesendet werden.
    Diese Zahlen sind derzeit provisorisch, wenn es Probleme oder Vorschläge gibt, bin ich gerne bereit, sie zu ändern.

    Etwas zur Zukunft:

    Ich möchte endlich die theSkyNet-Webseite aktualisieren, sodass sie den aktuellen Status des Sourcefinder-Projektes korrekt wiedergibt.

    Für alle, die es interessiert, werde ich jede Woche Statistiken zum Projekt posten.

    Ich werde definitiv jeden Mittwoch neue WUs herausgeben, manchmal auch an anderen Tagen, wenn ich Zeit dazu habe.

    Mein Hauptaugenmerk liegt ab jetzt darauf, Probleme mit der theSkyNet-Webseite zu beheben, da diese schon viel zu lange an der Lebenserhaltungsmaschine hängt.


    Danke euch allen, die bisher beim Sourcefinder-Projekt mitgeholfen haben, wir wissen eure Arbeit sehr zu schätzen. Nur dank euch konnte dieses Projekt endlich den Produktivbetrieb erreichen .
    19.04.2017, 2:22:01 MEZ


    Originaltext:
    Zitat Zitat von http://54.196.169.236/duchamp/
    We're now ready for Production!
    Yup, the day has come. Sourcefinder is finally moving from testing to production!

    Most of the bugs and issues we've been having during testing have been ironed out to a level that I'm happy with.
    All testing work units have been cancelled, and all work units and results have been archived.
    We're now going to begin to crunch actual data, 681GB of it!
    [...]

    We're starting with cubelet sets 1 to 4.

    A few other notes:

    I've added a new process to the server to archive work unit and result data older than 2 weeks, so you wont be able to see any of that archived data on the website.

    Any credits earned during testing will remain during production.

    All production work units will be registered under run 10.

    The limit on the number of work units sent to a single host will be increased. I'm planning on modifying the max work unit configuration from:
    Code:
    <max_wus_to_send>1</max_wus_to_send>
    <max_wus_in_progress>2</max_wus_in_progress>
    <max_ncpus>4</max_ncpus>
    to
    Code:
    <max_wus_to_send>8</max_wus_to_send>
    <max_wus_in_progress>3</max_wus_in_progress>
    <max_ncpus>16</max_ncpus>
    This should mean up to 16 CPUS on each machine will be used, and each user will be able to have up to 3 work units per CPU at any one time. This means the maximum number of WUs that a client can be running at any one time is now 48; just make sure you can crunch them all in time!
    Additionally, each scheduler request cycle will provide up to 8 work units.
    These numbers are tentative as well, if there are any issues or recommendations, I'm more than happy to change them.

    A few future things:

    I plan on finally updating theSkyNet website to accurately reflect the current state of the Sourcefinder project.

    I'll be reporting the project stats each week, for those who are interested.

    I'll definitely be pushing work units out every Wednesday, and sometimes on other days of the week if I get time.

    My main focus from now on is fixing the issues with theSkyNet website, as it's been running on life support for miles too long.


    Thank you everyone who has helped out with the Sourcefinder project so far, we greatly appreciate the work you've all done. It's because of all of you that this project was able to eventually reach production .
    19 Apr 2017, 1:22:01 UTC
    von Veröffentlicht: 26.04.2017 07:40
    1. Kategorien:
    2. Projekte

    In einer neuen Publikation wird ein iterativer Bergsteigeralgorithmus vorgestellt, mit welchem das recht neue Projekt Acoustics@home Schallgeschwindigkeitsprofile unter Wasser invertiert:

    Neue Publikation
    Eine Publikation, in welcher beschrieben wird, wie wir die Inversionsprobleme in der Hydroakustik lösen, wurde veröffentlicht. In dieser Publikation betrachten wir Berechnungen, die auf einem Rechencluster durchgeführt wurden. Neuerdings werden ähnliche Berechnungen mit Acoustics@home durchgeführt.
    Oleg Zaikin und Pavel Petrov: Application of iterative hill climbing to the sound speed profile inversion in underwater acoustics. In: Proc. of the Fifth International Workshop on Mathematical Models and their Applications. IOP Conference Series: Materials Science and Engineering, Volume 173. 2017. S. 1-8 (engl.)
    19.04.2017, 17:54:48 MEZ

    Originaltext:
    Zitat Zitat von http://www.acousticsathome.ru/boinc/
    New paper
    A paper, in which it is described how we solve the inversion problems in underwater acoustics, was published. In this paper we consider the calculations performed on a computing cluster. Recently the similar calculations are performed in Acoustics@home.
    Oleg Zaikin and Pavel Petrov. Application of iterative hill climbing to the sound speed profile inversion in underwater acoustics // In Proc. of the Fifth International Workshop on Mathematical Models and their Applications. IOP Conference Series: Materials Science and Engineering, Volume 173. 2017. pp. 1-8

    [...]
    19 Apr 2017, 16:54:48 UTC
    von Veröffentlicht: 25.04.2017 20:55
    1. Kategorien:
    2. Projekte

    Eine derzeit ungewohnt lange Zeit ohne Megaprimzahlfund bei PrimeGrid hat nun ihr Ende gefunden:

    Noch eine PPS-Megaprimzahl!
    Am 23. April 2017 um 23:31:40 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:

    663*2^3390469+1

    Die Primzahl hat 1020636 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 205 insgesamt.

    Die Entdeckung gelang Rolf Henrik Nilsson (puh32) aus Schweden mit einem Intel Core i7-6700K @ 4,00 GHz mit 16 GB RAM unter Windows 10. Dieser Rechner brauchte etwa 49 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 24. April 2017 um 12:04:31 MEZ von Randall Scalise (Randall J. Scalise) aus den Vereinigten Staaten mit einem Intel Core i5-4570 @ 3,20 GHz mit 8 GB RAM unter Linux bestätigt. Dieser Rechner brauchte etwa 1 Stunde 8 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    25.04.2017 | 1:01:21 MEZ


    Außerdem ist das bisherige Standard-Subprojekt The Riesel Problem (Sieve) nun bei der optimalen Siebtiefe angelangt und es werden keine neuen Aufgaben mehr generiert:

    Es könnte erforderlich sein zu handeln: TRP-Sieve wird jetzt beendet.
    Das Subprojekt TRP-Sieve ist beendet, es wird keine Arbeit mehr für dieses Subprojekt generiert. Zwar werden für kurze Zeit noch einige recycelte Aufgaben verfügbar sein, aber auch diese werden schließlich fertig sein.

    Falls TRP-Sieve das einzige PrimeGrid-Subprojekt ist, das bei euch läuft, solltet ihr ein anderes Subprojekt auswählen. Wir empfehlen GCW-Sieve. Das ist TRP-Sieve sehr ähnlich.

    Da TRP-Sieve bisher automatisch für neue Teilnehmer eingestellt wurde, ist euer Rechner derzeit sehr wahrscheinlich auf TRP-Sieve eingestellt, falls ihr niemals explizit ein Subprojekt ausgewählt habt. Bitte besucht die PrimeGrid-Einstellungsseite um das zu ändern.

    Für Diskussion und weitere Informationen siehe bitte diesen Forenthread.
    25.04.2017 | 14:54:01 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/
    Another PPS-Mega Prime!
    On 23 April 2017, 22:31:40 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:

    663*2^3390469+1

    The prime is 1,020,636 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 205th overall.

    The discovery was made by Rolf Henrik Nilsson (puh32) of Sweden using an Intel(R) Core(TM) i7-6700K CPU @ 4.00GHz with 16GB RAM, running Microsoft Windows 10 Core Edition. This computer took about 49 minutes to complete the primality test using LLR.

    The prime was verified on 24 April 2017 11:04:31 UTC, by Randall Scalise (Randall J. Scalise) of the United States using an Intel(R) Core(TM) i5-4570 CPU @ 3.20GHz with 8GB RAM running Linux. This computer took about 1 hour 8 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    25 Apr 2017 | 0:01:21 UTC
    Zitat Zitat von http://www.primegrid.com
    Action may be required: TRP-Sieve is now shut down.
    The TRP Sieve project has come to an end, and work generation for that subproject has stopped. While there will be a few recycled tasks available for a short time, eventually they will all be gone.

    If TRP-Sieve is the only PrimeGrid subproject you're running, you should select another of our subprojects to run. We suggest GCW-Sieve. It's very similar to TRP-Sieve.

    Since TRP-Sieve previously was automatically assigned to new users, if you've never explicitly selected which subproject to run, there's a good chance your computer is currently configured to TRP-Sieve. Please go to the PrimeGrid preferences page to change your preferences.

    For discussion and more information, please see this forum thread.
    25 Apr 2017 | 13:54:01 UTC

    Seite 1 von 49 1 2 3 11 ... Letzte
Single Sign On provided by vBSSO