• SETI.Germany News RSS-Feed

    von Veröffentlicht: 12.01.2018 14:10
    1. Kategorien:
    2. Projekte

    Der nächste Treffer bei GFN-18 ist PrimeGrids erster Top-100-Fund im Jahr 2018:

    GFN-262144-Megaprimzahl!
    Am 10. Januar 2018 um 13:26:12 MEZ hat PrimeGrids Generalized Fermat Prime Search eine verallgemeinerte Fermat-Megaprimzahl gefunden:

    3853792^262144+1

    Die Primzahl hat 1726452 Dezimalstellen und erreicht Chris Caldwells Datenbank der größten bekannten Primzahlen auf Platz 6 für verallgemeinerte Fermat-Primzahlen und Platz 55 insgesamt.

    Die Entdeckung gelang Rod Skinner (rjs5) aus den Vereinigten Staaten mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-8700K @ 3,70 GHz mit 16 GB RAM unter Linux. Diese GPU brauchte etwa 18 Minuten für den PRP-Test mit GeneferOCL3. Rod ist Mitglied des Teams Intel Corporation.

    Die Primalität dieser PRP wurde mit einem Intel Core i7-7700K @ 4,20 GHz mit 16 GB RAM unter Windows 10 bewiesen. Dieser Rechner brauchte etwa 6 Stunden 59 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    12.01.2018 | 12:47:22 MEZ

    Originaltext:
    Zitat Zitat von https://www.primegrid.com/
    GFN-262144 Mega Prime!
    On 10 January 2018, 12:26:12 UTC, PrimeGrid’s Generalized Fermat Prime Search found the Generalized Fermat mega prime:

    3853792^262144+1

    The prime is 1,726,452 digits long and enters Chris Caldwell's The Largest Known Primes Database ranked 6th for Generalized Fermat primes and 55th overall.

    The discovery was made by Rod Skinner (rjs5) of the United States using an NVIDIA GeForce GTX 1080 in an Intel(R) Core(TM) i7-8700K CPU at 3.70GHz with 16GB RAM, running Linux. This GPU took about 18 minutes to probable prime (PRP) test with GeneferOCL3. Rod is a member of the Intel Corporation team.

    The PRP was confirmed prime by an Intel(R) Core(TM) i7-7700K CPU @ 4.20GHz with 16GB RAM, running Microsoft Windows 10 Professional. This computer took about 6 hours 59 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    12 Jan 2018 | 11:47:22 UTC
    von Veröffentlicht: 11.01.2018 00:00
    1. Kategorien:
    2. SETI.Germany

    Hallo SETI.Germany,

    wieder ist ein Jahr vergangen, und neigt sich dem Ende zu. Wir haben wieder viele Events zusammen gerechnet, und die meisten haben ihre Ziele verfolgt und mehr oder weniger hoffentlich auch erreicht. Im nächsten Jahr wollen wir nun schon zum 10. Mal wieder ein wenig zusammenrücken und mit BOINCern aus vielen anderen Teams weltweit eine kurze Weile gemeinsam ein Projekt rechnen.

    Das Charity-Crunchen 2018 steht vor der Tür.

    Wie jedes Jahr hat das Orga-Team die Projektauswahl eingeengt (ok, eigentlich hat modesti die in Frage kommenden Projekte schon fast alleine ausgesiebt), und da die Auswahl der noch nicht gerechneten und noch aktiven Projekte mit grobem Hintergrund Biologie immer kleiner wird, haben wir für dieses Jahr Rosetta@home gewählt.

    Auch dieses Jahr geht es wieder darum, zusammen im Charity Team (in das jeder Teilnehmer für den Zeitraum des Events wechselt) für das vorher gewählte Projekt zu rechnen. Alles ist freiwillig, kein Muss, aber es wird sicherlich wieder sehr viel Spaß machen.

    Zeitraum:
    Das Charity-Crunchen 2018 wird stattfinden vom 14.01.2018, 0.01h UTC, bis zum 27. 01.2018, 23.59h UTC. (Countdown bis zum Event: hier)

    Hier noch die wichtigsten Links:
    Projektwebseite: http://boinc.bakerlab.org/rosetta/ (dieses Jahr sogar mit extra für uns aktualisierter Webseite )
    Charity-Team bei Rosetta@home (Die Teambeschreibung wird automatisch in den nächsten Tagen aktualisiert)

    Stündlich aktuelle Zahlen gibt es in den Statistiken von XSmeagolX
    Der Thread im Charity-Forum
    Thread im Forum der L'AF

    Teamwechsel:
    Kurz vorher wechseln die Teilnehmer (nur) in dem gewählten Projekt von ihrem Stammteams in das Charity Team, und rechnen ab dem 14.01.2017, um 00.01 Uhr UTC für das Projekt.

    Ich wünsche uns allen schon mal viel Spaß und freue mich. Bin gespannt, was wir 2018 alles erreichen werden.

    von Veröffentlicht: 10.01.2018 07:30
    1. Kategorien:
    2. Projekte

    Nach der Weihnachtspause wird es zeitnah mit den letzten kleineren WUs weitergehen, bevor die anstehenden größeren WUs zunächst getestet werden.

    Frohes neues Jahr 2018!
    Hallo zusammen!

    Ich bin zurück von meiner zweiwöchigen Pause, also wird es später am heutigen Tage wieder Arbeit geben, sobald der letzte Satz der SoFiA-WUs vorbereitet wurde.
    Sobald diese letzten 15MB-WUs fertig berechnet worden sind, werden wir mit den 100MB-WUs weitermachen.

    Vorher plane ich jedoch eine Aktualisierung der SoFiA-VM, um die neueste SoFiA-Version zu verwenden (anstelle der relativ alten Version, die wir bisher verwendet haben), hoffentlich bringt das einige Verbesserungen in Geschwindigkeit und Zuverlässigkeit.

    Ich werde einige Serien von 100MB-Test-WUs durchführen, damit wir sehen, wie sie laufen. Wenn wir keine größeren Probleme haben, werden wir weitermachen und den Rest bearbeiten. Wenn Probleme auftreten, werden wir mit Testserien fortfahren, bis ich den Fehler beheben kann.

    Ich hoffe, ihr alle hattet ebenfalls gute Feiertage und freut euch darauf, was dieses Jahr bringen mag. Ich tue das mit Sicherheit.

    Sam
    10.01.2018, 2:01:56 MEZ

    Originaltext:
    Zitat Zitat von https://sourcefinder.theskynet.org/duchamp/
    Happy New Year 2018!
    Hello everyone!

    I'm back from my 2 week break, so work will be resuming later today once the final set of SoFiA workunits have been dispatched.
    Once those final 15mb workunits have finished processing, we'll be moving on to the 100mb workunits.

    Before that, though, I plan on updating the SoFiA VM to use the latest version of SoFiA (rather than the fairly old one we've been using) in the hopes that we'll see some speed and reliability improvements.

    I'll run a few batches of test 100mb workunits, and we'll see how they go. If we don't have any significant issues, then we'll continue on and process the rest. If we run into issues, then we'll continue to run test batches until I can work everything out.

    I hope you've all had an excellent holiday period too, and are looking forward to what this year brings. I certainly am.

    Sam
    10 Jan 2018, 1:01:56 UTC
    von Veröffentlicht: 09.01.2018 13:10
    1. Kategorien:
    2. Projekte

    Am Mittwoch, den 10. Januar, wird es vormittags eine etwa einstündige Auszeit geben:

    Technische Arbeiten am 10. Januar, 8:00-9:00 MEZ
    Liebe Cruncher,

    die Projektseite wird morgen (10. Januar) etwa von 8:00 bis 9:00 MEZ abgeschaltet sein.
    Wir bitten, etwaige Probleme zu entschuldigen.
    09.01.2018, 13:29:04 MEZ

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    Technical works on January 10, 7:00-8:00 UTC
    Dear crunchers,

    tomorrow (January 10), the project website will experience a shutdown approx. from 7:00 to 8:00 UTC.
    We are sorry for possible inconvenience.
    9 Jan 2018, 12:29:04 UTC
    von Veröffentlicht: 08.01.2018 19:20
    1. Kategorien:
    2. Projekte

    Derzeit funktioniert das Hochladen von Dateien nicht zuverlässig, an einer Lösung wird gearbeitet.

    Probleme beim Hochladen von Dateien
    Unser Netzwerkspeicher-Unterbau ist vollgelaufen und daher schlägt das Hochladen von Dateien zeitweise fehl.

    Grund dafür ist ein Problem beim Löschen von Dateien, wir arbeiten daran, das zu beheben.

    Entschuldigung für die Schwierigkeiten und danke für eure Geduld bei Dateiübertragungen zu LHC@home.
    08.01.2018, 10:25:05 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/
    File upload issues
    Our NFS storage backend got saturated and hence uploads are failing intermittently.

    The underlying cause is an issue with file deletion, we are trying to resolve that.

    Sorry for the trouble and thanks for your patience with transfers to LHC@home.
    8 Jan 2018, 9:25:05 UTC
    von Veröffentlicht: 06.01.2018 22:35
    1. Kategorien:
    2. Projekte

    Einige aktuelle Ergebnisse des Projektes wurden kürzlich auf der Herbsttagung der Amerikanischen Geophysikalischen Vereinigung vorgestellt:

    Vorträge von Dr. Sihan Li auf der AGU-Herbsttagung
    Die weltgrößte Konferenz für Geo- und Weltraumwissenschaften - die Herbsttagung der Amerikanischen Geophysikalischen Vereinigung (AGU Fall Meeting) – fand vom 11. bis 15. Dezember in New Orleans, Louisiana, statt. Die Postdoktorandin Dr. Sihan Li (Meredith) besuchte die Konferenz, um mehrere Vorträge im Namen des Projektes climateprediction.net zu halten.

    In ihrem Vortrag Changing frequency of flooding in Bangladesh: Is the wettest place on Earth getting wetter? (engl., Veränderte Häufigkeit von Überschwemmungen in Bangladesch: Wird der feuchteste Platz auf der Erde noch feuchter?; von Karsten Haustein, Peter Uhe, Ruksana Rimi, Akm Saiful Islam und Friederike Otto) in der Sitzung unter dem Titel ‘Improving Our Mechanistic Understanding of the Regional Climate Response to Anthropogenic Aerosols’ (engl., Verbesserung unseres mechanistischen Verständnisses der Auswirkung anthropogener Aerosole auf das regionale Klima) präsentierte sie Ergebnisse einer Auswertung extremer Niederschläge, die zu den Überschwemmungen in Bangladesch im Sommer 2016 führten (siehe auch REBuILD [engl.]).

    Der menschliche Einfluss auf den asiatischen Monsun besteht aus zwei entgegengesetzt wirkenden Kräften, der anthropogenen Erwärmung durch den Einfluss steigender Treibhausgasemissionen und Kühlung durch thermische Abstrahlung aufgrund erhöhter Mengen anthropogener Aerosole. Treibhausgasemissionen intensivieren tendenziell den Wasserkreislauf und erhöhen den Monsunniederschlag, wohingegen angenommen wird, dass Aerosole den entgegengesetzten Effekt haben.

    In der Realität sind mehr extreme Niederschläge bereits so gut wie unvermeidlich, da die Verschmutzung durch Aerosole schließlich unabhängig von zukünftigen Treibhausgasemissionen verringert werden wird. Daher ist es wichtig, die Risiken durch das Entfernen anthropogener Aerosole aus der gegenwärtigen Welt abzuschätzen im Gegensatz zu Standardexperimenten, die projizierte Klimaszenarien verwenden.

    In der Sitzung ‘Novel Methods for Combining Physical Simulation, Machine Learning, and Data-Driven Analysis in Climate Studies and Geophysical Sciences’ (engl., neue Methoden des Kombinierens von physikalischen Simulationen, maschinellem Lernen und datenbasierter Auswertung in Klimastudien und Geophysik) stellte Dr. Li Using Perturbed Physics Ensembles and Machine Learning to Select Parameters for Reducing Regional Biases in a Global Climate Model (engl., Verwendung von Ensembles mit gestörter Physik und maschinellem Lernen zur Parameterwahl zwecks Verringerung regionaler Tendenzen in einem globalen Klimamodell; von Sihan Li, David E Rupp, Linnia Hawkins, Philip Mote, Doug J McNeall, Sarah Sparrow, David Wallom und Richard Betts) vor.

    Die Studie untersucht das Potenzial, bekannte Tendenzen zu heißen/trockenen Sommern über dem Nordwestpazifik in den Atmosphärenmodellen des UK Met Office (HadAM3P) durch gleichzeitiges Variieren mehrerer Modellparameter zu reduzieren. Die Ergebnisse veranschaulichen das Potenzial der Anwendung maschinellen Lernens für billige und schnelle statistische Emulatoren von Klimamodellen.

    Schließlich wurde in Changing Drought Risk In a Warming World - using event attribution methods to explore changing likelihoods of drought in east Africa in the past, present and future (engl., Veränderung von Dürrerisiken in einer sich erwärmenden Welt - Verwendung von Methoden zur Zuschreibung von Ereignissen zwecks Erforschung sich verändernder Dürrewahrscheinlichkeiten in Ostafrika in Vergangenheit, Gegenwart und Zukunft; von Sarah O’Keefe, Sihan Li und Friederike Otto) in der Sitzung ‘Climate Extremes: Patterns, Mechanisms, and Attribution’ (engl., Klimaextreme: Muster, Mechanismen und Zuschreibung) eine Abschätzung aktueller und zukünftiger Veränderungen der Wahrscheinlichkeit von Dürren in verschiedenen ostafrikanischen Regionen präsentiert, unter Verwendung des Projektes HAPPI (engl.), in welchem große Ensembles von rein atmosphärischen Modellen unter historischen, 1,5-Grad- und 2-Grad-Bedingungen berechnet werden (Mitchell et al., 2017).

    Ostafrika ist wegen der besonderen klimatischen Kräfte in der Region und der Abhängigkeit der Bevölkerung von regenwassergespeister Landwirtschaft besonders anfällig für mögliche Auswirkungen des anthropogenen Klimawandels. Aufgrund der großen natürlichen Variabilität über die Jahre ist die Erkennung und Zuordnung anthropogener Einflüsse jedoch eine Herausforderung. Die Verwendung großer Ensembles verschiedener Modelle im Rahmen von HAPPI erlaubt eine robustere Abschätzung der Extreme als je zuvor.
    Veröffentlicht am 3. Januar 2018

    Originaltext:
    Zitat Zitat von https://www.climateprediction.net/dr-sihan-li-presents-at-agu-fall-meeting/
    Dr Sihan Li presents at AGU Fall Meeting
    The world’s largest Earth and space science meeting – the AGU Fall Meeting – took place in New Orleans, Louisiana, from 11-15 December. Post-doctoral Research Associate Sihan Li (Meredith) attended the meeting to give several presentations on behalf of the climateprediction.net project.

    Her presentation Changing frequency of flooding in Bangladesh: Is the wettest place on Earth getting wetter? (Karsten Haustein, Peter Uhe, Ruksana Rimi, Akm Saiful Islam, Friederike Otto) in the session entitled ‘Improving Our Mechanistic Understanding of the Regional Climate Response to Anthropogenic Aerosols’, presented results from an analysis of extreme precipitation that led to the Bangladesh floods in summer 2016 (see also the REBuILD project).

    Human influence on the Asian monsoon is exerted by two counteracting forces, anthropogenic warming due to the influence of increasing Greenhouse Gas (GHG) emissions, and radiative cooling due to increased amounts of anthropogenic aerosols. GHG emissions tend to intensify the water cycle and increase monsoon precipitation, whereas aerosols are considered to have the opposite effect.

    In reality we are essentially committed to more rainfall extremes already as aerosol pollution will eventually be reduced regardless of future GHG emissions. Therefore it is crucial to assess the risk related to removing anthropogenic aerosols from the current world as opposed to standard experiments that use projected climate scenarios.

    In the Session on ‘Novel Methods for Combing Physical Simulation, Machine Learning, and Data-Driven Analysis in Climate Studies and Geophysical Sciences’, Dr Li presented Using Perturbed Physics Ensembles and Machine Learning to Select Parameters for Reducing Regional Biases in a Global Climate Model (Sihan Li, David E Rupp, Linnia Hawkins, Philip Mote, Doug J McNeall, Sarah Sparrow, David Wallom, Richard Betts).

    The study investigates the potential to reduce known summer hot/dry biases over Pacific Northwest in the UK Met Office’s atmospheric model (HadAM3P) by simultaneously varying multiple model parameters. Results illustrate the potential of using machine learning to train cheap and fast statistical emulators of climate models.

    Finally, Changing Drought Risk In a Warming World- using event attribution methods to explore changing likelihoods of drought in east Africa in the past, present and future (Sarah O’Keefe, Sihan Li, Friederike Otto) in the session ‘Climate Extremes: Patterns, Mechanisms, and Attribution’, estimated current and future changes in the probability of drought in different East African regions, making use of the HAPPI project in which large ensembles of atmosphere-only models are run under historic, 1.5 and 2 degrees C conditions (Mitchell et al, 2017).

    East Africa is particularly vulnerable to potential impacts of anthropogenic climate change, due to the particular climatic forces at play in the region and the population’s dependence on rain fed agriculture. However large natural inter-annual variability in the region has made the detection and attribution of anthropogenic forcing a challenge. The large ensemble multi-model framework in the HAPPI design allows for a more robust estimation of extremes than ever before.
    Posted on 3rd January 2018
    von Veröffentlicht: 06.01.2018 16:35
    1. Kategorien:
    2. Projekte

    Es gibt einige Informationen zur weiteren Entwicklung des Projektes:

    Technische Neuigkeiten zum Projekt RakeSearch vom 06.01.2018
    Liebe Teilnehmer!

    Während der etwa 5 Monate seines Lebens ist das Projekt signifikant gewachsen und wir möchten allen Teilnehmern dafür danken. Bis heute wurden mehr als 1,2 Millionen WUs bearbeitet (von 23,3 Millionen im gesamten Satz), welche uns einige tausend Ergebnisse mit "permutierten" orthogonalen diagonalen lateinischen Quadraten und eine interessante Suche nach aus diesen und dazu orthogonalen Quadraten konstruierten Strukturen (wie die zuvor veröffentlichte "Halskette") eingebracht haben. Wir haben viele Aufgaben automatisiert, die für den Alltagsbetrieb des Projektes nötig sind und viel Zeit beansprucht haben, und haben begonnen, die erhaltenen Ergebnisse genauer zu untersuchen.

    Wir sind auch darauf gestoßen, dass das aktuelle Format der veröffentlichten Ergebnisse (als einfache HTML-Seite mit Liste der ODLS-Paare) nicht gut zu ihrem Wesen passt, und nach Veröffentlichung der letzten Ergebnisse im Dezember werden wir sie nicht mehr in dieser Form veröffentlichen, sondern mit dem Erstellen einer neuen Schnittstelle zum Anschauen, Suchen und Filtern der Ergebnisse beginnen. Natürlich werden wir die Tradition beibehalten, den Teilnehmern zu gratulieren, welche orthogonale Quadrate gefunden haben. Und ihnen auch Badges zu geben. Und natürlich werden nach der Aufbereitung alle Ergebnisse veröffentlicht - zumindest in einem Rohformat.

    Ein weiterer wichtiger Punkt ist die Optimierung der Standard-Anwendung. Wir planen, Daniels Optimierungen einzubauen, aber erst nach Einrichten der Ergebnisaufbereitung, weil bereits jetzt jeder Teilnehmer optimierte Anwendungen (für viele Plattformen!) über die Links aus dem entsprechenden Thread herunterladen und verwenden kann.

    Wir hoffen, dass diese "technischen Neuigkeiten" euch das Leben des Projektes klarer erscheinen lassen. Danke für eure Teilnahme und frohes Crunchen!
    06.01.2018, 12:51:38 MEZ

    Originaltext:
    Zitat Zitat von http://rake.boincfast.ru/rakesearch/
    RakeSearch project technical update 2018-01-06
    Dear participants!

    During ~5 months of life, the project has significantly grown up and we want to thank all participants for that. Today there have been processed more than 1.2 mln of workunits (from ~23.3 mln of the entire set), which gave us several thousands of results with "permutational" orthogonal diagonal Latin squares and interesting search for structures constructed by these squares and squares orthogonal to them (like previously published "Necklace"). We automated many tasks which are needed for everyday project work and consumed most of time, and started deeper work with received results.

    Also we encountered mismatch of current format of results publishing (as simple HTML plain page with list of ODLS pairs) with their essence and after publishing last results from December we stop to publish it in this form and start creating another interface for viewing, searching and filtering the results. Of course, we keep the tradition of congratulating participants who found the orthogonal squares. And granting them badges, too. And, of course, after completion of postprocessing all results will be published - at least in "raw" format.

    Another important thing is the optimization of default app. We plan to implement Daniel's optimizations into it, but after setting up results postprocessing because any participant already can download and use optimized application (for many platforms!) by links from the corresponding thread.

    Hope that this "technical update" makes the project life more clear to you. Thank you for your participation and happy crunching!
    6 Jan 2018, 11:51:38 UTC
    von Veröffentlicht: 06.01.2018 10:05
    1. Kategorien:
    2. Projekte

    Nach den großen Veränderungen im letzten Jahr beginnt das neue Jahr mit einer weiteren, weitreichenden Änderung:

    Änderung der Deadlines

    Aufgrund einer Zusammenarbeit mit dem SSGCID wird es nun grundsätzlich nur noch WUs mit einer Deadline von drei oder acht Tagen geben. Die WUs mit einer Deadline von drei Tagen werden bevorzugt freitags verteilt. (Also Freitag Abend europäischer Zeit, Anm. d. Übers.)

    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=12385#88019
    It's likely due to modelling we are doing for a collaboration with SSGCID. A mixture of 8-day and 3-day deadlines is now the normal for the project. Generally the 3-day deadlines are seen Friday through the weekend.
    von Veröffentlicht: 06.01.2018 10:00
    1. Kategorien:
    2. Projekte

    Auf die Überlastung folgte der Absturz. Die Reparaturarbeiten sollten in ein paar Stunden abgeschlossen sein, allzu viele Daten wurden glücklicherweise nicht verloren. Jedoch könnten in den letzten Tagen neu erstellte Benutzerkonten verloren gegangen sein.

    Datenbankabsturz
    Unsere Datenbank ist abgestürzt. Wir arbeiten hart daran, sie zu reparieren.
    05.01.2018, 2:19:20 MEZ

    Wir sind beinahe fertig. Die gute Nachricht ist, dass die meisten Tabellen intakt waren. Die einzigen problematischen Tabellen waren die WU- und die Ergebnistabelle, welche beschädigt waren und meine Sicherung war veraltet. Daher dauerte die Reparatur eine Weile und wir haben etwa 200 Zeilen verloren (von fast einer Million). Es wird interessant sein, die Reaktion der Projektdienste darauf zu sehen.

    Die Datenbank wurde auf einem anderen Rechner wieder aufgebaut. Um die Arbeit abzuschließen, müssen wir MySQL auf unserem Hauptrechner neu installieren und dann die neu aufgebaute Datenbank importieren. Es ist spät hier, sodass ich nicht davon ausgehe, das vor heute Nachmittag (MEZ; in etwa 8 Stunden) zu schaffen.

    Eine Nebenwirkung der neuen Datenbank ist, dass vermutlich alle Beiträge der letzten paar Tage sowie neu erstellte Benutzerkonten verloren gegangen sind. Ich bitte um Entschuldigung!

    Ich bin wirklich überrascht, dass ich das hier posten kann, weil MySQL nur in Wiederherstellungsstufe 6 gestartet werden konnte, welche die Datenbank schreibgeschützt machen sollte.
    06.01.2018, 7:53:12 MEZ

    Originaltexte:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/
    Database crash
    We had a database crash. We are working hard to get it fixed.
    5 Jan 2018, 1:19:20 UTC
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=331&postid=1937
    We are just about done. The good news is most tables were intact. The only problematic tables were the workunit and result tables which were corrupted and my backup was out of date. So those took a while to repair and we lost about 200 rows (out of almost a million). It will be interesting to see how the project daemons respond to that.

    The database has been rebuilt on another machine. To complete the process, we need to reinstall mysql on our main host and then import the newly built database. It is late over here so I don't expect this to get done until tomorrow morning (about 8 hours from now).

    A side effect of the new database is that any posts over the last several days will probably be gone and the same goes for any new user accounts. Sorry about that!

    I'm actually surprised I can even post this because the only way to get mysql to start was to use recovery level 6, which is supposed to make the database read only.
    6 Jan 2018, 6:53:12 UTC
    von Veröffentlicht: 06.01.2018 09:35
    1. Kategorien:
    2. Projekte

    Neben den normalen MilkyWay@Home-WUs, die aufgrund der Funktionsweise des Validators zeitweise den Status "Überprüfung ohne Ergebnis" erhalten, wurden zuletzt auch einige N-Body-WUs nicht validiert. An einer Lösung wird gearbeitet.

    Probleme mit nicht eindeutigen Ergebnissen
    Hallo zusammen,

    es gab einige Berichte von Problemen mit nicht eindeutigen Ergebnissen, welche bei Nbody-WUs auftreten. Das scheint auf die Nbody-Anwendung beschränkt zu sein. Ich glaube, dass das mit einem Datenbankproblem auf unserer Seite zusammenfiel. Ich arbeite daran, das Problem zu beheben.

    Danke für eure Geduld und anhaltende Unterstützung,
    Sidd
    06.01.2018, 3:42:37 MEZ

    Originaltext:
    Zitat Zitat von http://milkyway.cs.rpi.edu/milkyway/
    Validation Inconclusive Errors
    Hi all,

    There has been some reports of validation inconclusive issues occurring with the Nbody workunits. It seems to be isolated to the nbody app. I believe this coincided with a database issue on our end. I am working on resolving the issue.

    Thank you for you patience and continued support,
    Sidd
    6 Jan 2018, 2:42:37 UTC

    Seite 51 von 121 Erste ... 41 49 50 51 52 53 61 101 ... Letzte
Single Sign On provided by vBSSO