• SETI.Germany News RSS-Feed

    von Veröffentlicht: 30.08.2019 06:10
    1. Kategorien:
    2. Projekte

    Wegen Unterfinanzierung wird das Projekt bis auf weiteres auf Eis gelegt:

    DHE stillgelegt
    Hallo zusammen,

    leider müssen wir DHE stilllegen, bis wir neue finanzielle Mittel gesichert haben. Ein großer Dank euch allen, die für unser Projekt gecruncht haben, an das BOINC-Team und ein besonderer Dank an diejenigen, die uns auf vielfältige Weise freiwillig unterstützt haben.

    Alles Gute,
    Michael
    29.08.2019, 14:44:30 MEZ

    Originaltext:
    Zitat Zitat von https://www.dhep.ga/boinc/forum_thread.php?id=149
    DHE suspended
    Hello everyone,

    Unfortunately we are having to suspend DHE until we secure funding. A big thanks to all of you who crunched for our project, the BOINC team, and a special thanks to those who volunteered with us in many ways.

    All the best,
    Michael
    29 Aug 2019, 13:44:30 UTC
    von Veröffentlicht: 25.08.2019 09:25
    1. Kategorien:
    2. Projekte

    Seit einiger Zeit ist es möglich (und zumindest bei längeren WUs auch deutlich effizienter), mehrere CPU-Kerne parallel an derselben WU rechnen zu lassen. Bisher musste das clientseitig mit einer app_config.xml eingestellt werden, bald wird das auch über die Projekteinstellungen auf der Webseite möglich sein.

    Wer derzeit aktiv ein LLR-Subprojekt mit Multithreading cruncht und vermeiden will, dass nach der projektseitigen Umstellung zunächst die Standardeinstellungen verwendet werden, kann jetzt schon die app_config.xml entsprechend erweitern wie in den folgenden Übersetzungen beschrieben. Natürlich werden diese Änderungen erstmal zur Fehlermeldung führen, dass die Planklasse mt unbekannt sei; sobald die erste neue WU nach der projektseitigen Umstellung heruntergeladen wird, werden die Einstellungen dann aber korrekt verwendet.

    Kommende NOTWENDIGE Änderungen an der app_config.xml
    Falls ihr nicht wisst, was eine app_config.xml ist oder keine solche für LLR-Anwendungen bei PrimeGrid nutzt, könnt ihr diese Nachricht ignorieren. Das betrifft euch nicht.

    Falls ihr aber eine app_config.xml für irgendeine unserer LLR-Anwendungen verwendet, wird diese nach einigen Änderungen auf unserer Seite nicht mehr funktionieren, weil wir die Planklasse der LLR-Anwendungsversionen ändern. Für Einzelheiten und eine Anleitung, was ihr jetzt schon tun solltet, siehe bitte diese Nachricht. Kommentare, Fragen und die Diskussion finden sich auch in diesem Thread.
    22.08.2019 | 16:55:33 MEZ


    Nachfolgend die Übersetzung des verlinkten Beitrags:

    Wichtig:

    PrimeGrid wird in naher Zukunft Multithreading über die Projekteinstellungen anbieten.
    Falls ihr eine app_config.xml (wahrscheinlich zum Einrichten von Multithreading) verwendet, wird diese nicht mehr funktionieren, wenn das neue Multithreading-System in Betrieb genommen wird. Wenn ihr wollt, dass eure app_config.xml weiterhin funktioniert, solltet ihr jetzt Änderungen vornehmen, damit sie sowohl vor als auch nach der Umstellung funktioniert.

    Nur LLR-Subprojekte sind betroffen.

    Jeder <app_version>-Block für ein LLR-Subprojekt sollte kopiert werden und die Kopie zusätzlich um die Zeile <plan_class>mt<plan_class> ergänzt werden. Für ESP mit 4 Threads sieht das beispielsweise so aus:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    Ihr könnt das heute ändern und der alte app_version-Block wird weiterhin funktionieren. Sobald wir das neue Multithreading installieren, wird dieser app_version-Block ignoriert und stattdessen der zweite app_version-Block für die Planklasse mt verwendet. Die meisten Leute werden dann ihre app_config.xml oder zumindest die Abschnitte für die LLR-Subprojekte löschen und die Multithreading-Einstellungen auf der Webseite verwenden können.

    Es gibt noch keinen genauen Termin für diese Änderung, aber es wird nicht mehr im August passieren, sondern hoffentlich Anfang September.
    22.08.2019 | 16:43:13 MEZ


    Originaltexte:
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8758
    Upcoming REQUIRED changes to app_config.xml
    If you don't know what app_config.xml is, or if you don't use it for PrimeGrid's LLR apps, you can ignore this notice. This doesn't affect you.

    But if you are using app_config.xml on any of our LLR apps, we are changing the plan class of the LLR app versions, and therefore your app_config.xml won't work after the changes. For details, as well as what you should do right now, please see this message. Comments, questions, and discussion are also located in that thread.
    22 Aug 2019 | 15:55:33 UTC
    Zitat Zitat von https://www.primegrid.com/forum_thread.php?id=8750&nowrap=true#132260
    IMPORTANT:

    PrimeGrid will be switching to a preferences-based method for setting up multi-threading in the near future.
    If you are using app_config.xml (probably to set up multi-threading) it's going to stop working when the multi-threading system goes live. If you want your app_config.xml to continue working, you should make modifications now that will allow it to work both before and after the change.

    Only LLR projects are affected.

    Every <app_version> block for an LLR project should be duplicated, with the duplicate having a <plan_class>mt<plan_class> line added to it. For example, this is the before and after for ESP, set up for 4 threads:

    Code:
    <app>
      <name>llrESP</name>
      <fraction_done_exact>1</fraction_done_exact>
      <report_results_immediately>1</report_results_immediately>
    </app>
    
    <app_version>
      <app_name>llrESP</app_name>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    
    <app_version>
      <app_name>llrESP</app_name>
      <plan_class>mt</plan_class>
      <cmdline>-t 4</cmdline>
      <avg_ncpus>4</avg_ncpus>
    </app_version>
    You can do this today, and the original app_version block will continue to work. Once we install the new multi-tasking, that app_version block will be ignored and the second app_version block for the mt plan class will take over. At that point, most people can erase app_config.xml, or at least the parts for LLR projects, and start using the multi-threading controls on the website.

    I don't have an exact time yet for this change, but it won't happen in August. I'm hoping for early September.
    22 Aug 2019 | 15:43:13 UTC
    von Veröffentlicht: 25.08.2019 08:30
    1. Kategorien:
    2. Projekte

    Seit einigen Tagen befinden sich mehrere Millionen Sixtrack-WUs im System, wodurch die Datenbank zu einem Flaschenhals bei der WU-Verteilung geworden ist. Etwas Abhilfe schaffen inzwischen zusätzliche Scheduler, jedoch haben diese auch Nebeneffekte wie beispielsweise Ungenauigkeiten auf der Serverstatus-Seite.

    Viele Aufgaben in der Warteschlange - Serverstatus-Seite irrig
    Wegen der sehr großen Zahl Sixtrack-WUs in der Warteschlange haben wir die Last auf vier Scheduler/Feeder-Server verteilt, um den Bedarf zu befriedigen. (Unser Flaschenhals ist die Datenbank, aber mehrere Scheduler können mehr WUs zur Verteilung vorhalten.)

    Unsere Serverstatus-Seite zeigt den Status der Dienste auf anderen Servern derzeit nicht in Echtzeit. Daher kann die Serverstatus-Seite anzeigen, dass Serverprozesse wie der Feeder auf boincai12 nicht laufen, obwohl sie in Ordnung sind.

    Bitte habt auch Geduld, wenn ihr nicht ausreichend schnell WUs für eure bevorzugte Anwendung erhaltet. Nach einigen Versuchen wird es einige WUs geben. Vielen Dank für euer Verständnis und frohes Crunchen!

    ---das Team
    21.08.2019, 12:41:17 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5119
    Many queued tasks - server status page erratic
    Due to the very high number of queued Sixtrack tasks, we have enabled 4 load-balanced scheduler/feeder servers to handle the demand. (Our bottleneck is the database, but several schedulers can cache more tasks to be dispatched.)

    Our server status page does not currently show in real time the daemon status on remote servers. Hence the server status page may indicate that server processes like feeder on boincai12 is down, while it is ok.

    Please also be patient if you are not getting tasks for your preferred application quickly enough. After a few retries, there will be some tasks. Thanks for your understanding and happy crunching!

    ---the team
    21 Aug 2019, 11:41:17 UTC
    von Veröffentlicht: 16.08.2019 18:45
    1. Kategorien:
    2. Projekte

    Die Gesamtzahl der Primzahlfunde ist im Juli etwas zurückgegangen, da der markante Zuwachs bei den mittelgroßen Funden (nicht zuletzt dank der Challenge zum Jahrestag der ersten Mondlandung) den Rückgang bei den sehr großen und sehr kleinen Primzahlfunden nicht ganz ausgleichen konnte. An insgesamt 138 Funden waren Mitglieder von SETI.Germany zwölfmal als Erstfinder und dreimal als Doublechecker beteiligt.

    Keine Top-100-, aber fünf kleinere Megaprimzahlen wurden gefunden, eine der entsprechenden WUs landete sogar ausschließlich auf Rechnern von SETI.Germany-Mitgliedern:

    • Die 1095538-stellige Proth-Primzahl 567*2^3639287+1 wurde am 02.07.2019 um 21:33:53 MEZ von TeardropOnFire aus dem Vereinigten Königreich mit einem Intel Core i7-8750H gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 9 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.07.2019 um 18:27:49 MEZ durch 288larsson (Team: Sicituradastra.) aus Schweden mit einem Intel Core i9-7980XE, wobei für den Primalitätstest mit LLR etwa 47 Minuten benötigt wurden.

    • Die 1000259-stellige Proth-Primzahl 8619*2^3322774+1 wurde am 27.07.2019 um 14:15:56 MEZ von Randall J. Scalise aus den Vereinigten Staaten mit einem Intel Core i5-4590 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 33 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch neuralstatic aus den Vereinigten Staaten mit einem Intel Core i9-9900K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 10 Minuten benötigt wurden.

    • Die 1021215-stellige verallgemeinerte Fermat-Primzahl 61837354^131072+1 wurde am 28.07.2019 um 07:01:28 MEZ von dh1saj (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 39 Sekunden benötigt wurden. Die Bestätigung erfolgte am 28.07.2019 um 07:08:28 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 33 Sekunden benötigt wurden.

    • Die 1000270-stellige Proth-Primzahl 9485*2^3322811+1 wurde am 28.07.2019 um 12:09:59 MEZ von Robert Hoffman aus den Vereinigten Staaten mit einem Intel Xeon E5-2687W v2 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 37 Minuten benötigt wurden. Die Bestätigung erfolgte am 29.07.2019 um 12:48:45 MEZ durch Wenjie Zheng (Team China) aus China mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1000302-stellige Proth-Primzahl 6505*2^3322916+1 wurde am 31.07.2019 um 07:52:30 MEZ von vko (University of Maryland) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 20 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X, wobei für den Primalitätstest mit LLR etwa 37 Minuten benötigt wurden.


    Die Challenge brachte auch einen erweiterten verallgemeinerten Fermatzahl-Teiler hervor:

    • Die 827916-stellige Proth-Primzahl 701*2^2750267+1 ist ein Teiler der erweiterten verallgemeinerten Fermat-Zahl xGF(2750266,7,4)=7^2^2750266+4^2^2750266. Sie wurde am 15.07.2019 um 21:44:50 MEZ von bcavnaugh (Crunching@EVGA) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 17.07.2019 um 09:52:20 MEZ durch Sebastian* (Sicituradastra.) aus Deutschland mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 29 Minuten benötigt wurden.


    Die Verteilung der 132 weiteren Primzahlfunde ist wie folgt:

    • Proth Prime Search (PPS): 29 Funde im Bereich 2739805 ≤ n ≤ 2794357 (824767-841189 Dezimalstellen), darunter drei Erstfunde von DeleteNull sowie ein Erstfund von pschoefer
    • Proth Prime Search Extended (PPSE): 11 Funde im Bereich 1541791 ≤ n ≤ 1543398 (464130-464613 Dezimalstellen), darunter ein Erstfund von ID4
    • Sophie Germain Prime Search (SGS): 32 Funde im Bereich 4540486653657 ≤ k ≤ 4574123792997 (388342 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull sowie ein Erstfund und ein Doublecheck von trebotuet
    • Generalized Fermat Prime Search (n=15): 44 Funde im Bereich 131174206 ≤ b ≤ 135038646 (266006-266419 Dezimalstellen), darunter ein Erstfund von boss
    • Generalized Fermat Prime Search (n=16): 13 Funde im Bereich 63722348 ≤ b ≤ 64758794 (511463-511922 Dezimalstellen), darunter ein Erstfund von EmmettDe
    • Generalized Fermat Prime Search (n=17): 3 Funde im Bereich 15567144 ≤ b ≤ 15731520 (942698-943296 Dezimalstellen)


    von Veröffentlicht: 11.08.2019 13:15
    1. Kategorien:
    2. Projekte

    Wie ihr vielleicht gehört habt, wurde das Institute for Protein Design kürzlich als Teil des Audacious Project ausgewählt. Diese groß angelegte philanthropische Zusammenarbeit, die eine Folge der Verleihung des TED-Preises ist, fördert und finanziert Projekte mit dem Potenzial, die Welt zu verändern.

    Infolgedessen erweitern wir unser Team von Wissenschaftlern und Ingenieuren in Seattle, die gemeinsam an der Weiterentwicklung von Rosetta, unserer Software für Proteindesign und Strukturvorhersage, arbeiten werden. Die Finanzierung wird es uns auch ermöglichen, in die Ausrüstung, die Labormittel und den Laborraum zu investieren, der für die Entwicklung und den Test von Millionen synthetischer Proteine benötigt wird.

    Welche Herausforderungen werden wir angehen? Seht euch meinen TED-Vortrag an, um es herauszufinden.

    All diese Arbeit - wie alles, was wir tun - hängt von euch, den Teilnehmern von Rosetta@home ab. Ob es um die Entwicklung maßgeschneiderter Nanomaterialien oder sicherere Krebstherapien geht, wir setzen auf die Plattform Rosetta@home. Wir können euch nicht genug danken, dass ihr euch die Zeit genommen haben, an dieser spannenden Forschung teilzunehmen, und wir hoffen, ihr erzählt mindestens einem Freund, dass auch er allein durch den Betrieb von Rosetta@home eine Rolle bei der Revolution des Proteindesigns spielen kann.

    Vielen Dank,

    David Baker
    Direktor, Institute for Protein Design

    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13145#90826
    As you may have heard, the Institute for Protein Design was recently selected as part of The Audacious Project. This large-scale philanthropic collaboration, which is the successor to the TED Prize, surfaces and funds projects with the potential to change the world.

    As a result, we are expanding our Seattle-based team of scientists and engineers who will work together to advance Rosetta, our software for protein design and structure prediction. The funding will also allow us to invest in the equipment, supplies and lab space needed to design and test millions of synthetic proteins.

    What challenges will we be tackling? Watch my TED talk to find out.

    All of this work — like everything we do — will depend on you, the participants in Rosetta@home. Whether it’s creating custom nanomaterials or safer cancer therapies, we rely on the Rosetta@home distributed computing platform. We cannot thank you enough for taking the time to be a part of this exciting research, and we hope you tell at least one friend that they too can play a role in the protein design revolution just by running Rosetta@home.

    Thank you,

    David Baker
    Director, Institute for Protein Design
    von Veröffentlicht: 11.08.2019 13:10
    1. Kategorien:
    2. Projekte

    Erste Zahlen zur kürzlich begonnenen Suche nach orthogonalen diagonalen lateinischen Quadraten (engl. orthogonal diagonal Latin squares, ODLS) zehnter Ordnung wurden bekanntgegeben. Die 15318 im Juli bearbeiteten WUs enthielten keine ODLS, aber einige teilweise orthogonale Quadrate mit einem Orthogonalitätsgrad bis 88. Es waren 86 Teilnehmer am Fund von 163 Quadrat-Paaren mit Orthogonalitätsgrad 86, 10 Paaren mit Grad 87 und 4 Paaren mit Grad 88 beteiligt, darunter mit [SG-2W]Kurzer, [SG]steini, Roadranner, axels, VogeL und Novalor auch Mitglieder von SETI.Germany.

    Außerdem wurde die Anwendung noch etwas verbessert, indem einige Quadrate schneller von der Suche ausgeschlossen werden:

    Neue Version der Anwendung für Ordnung 10
    Liebe Teilnehmer!

    Wir verteilen eine neue Version der Anwendung für die Suche im Raum der Quadrate zehnter Ordnung. Sie wird schneller sein als die bisherige Version, da einige Kombinationen, die zu keinem Ergebnis führen, frühzeitiger ausgeschlossen werden - wir haben einen Filter eingebaut, der Kombinationen mit gleichen Zeilen an einer Stelle ausschließt. Ein Beispiel für eine ähnliche Kombination könnt ihr in den Zahlen für Juli 2019 ansehen.

    Wir gehen davon aus, dass die Ergebnisse von mit verschiedenen Versionen der Anwendung berechneten WUs sich unterscheiden und als ungültig markiert werden könnten. Wir schätzen aber, dass die Zahl solcher Ergebnisse recht klein sein wird - einige zehn, vielleicht 100 oder 200. Wenn ihr solche WUs beobachtet, meldet sie bitte in diesem Thread!

    Danke für eure Aufmerksamkeit für das Projekt und die Teilnahme!
    07.08.2019, 22:08:17 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=192
    New version of application for Rank 10
    Dear participants!

    We deploy a new version of the application for search in rank 10 space. It will be faster than the previous version due to the earlier exclusion of some combinations that do not lead to a result - we add a filter for excluding combinations with the same rows in one position. Example of a similar combination you can view in July 2019 totals.

    We expect that the results for the same workunit processed by the different versions of the application may differ and marked as incorrect. But in our estimation, the number of such results will be relatively small - about several tens, maybe 100 or 200. If you face with such workunits - post these numbers in this thread, please!

    Thank you for attention for the project and participation!
    7 Aug 2019, 21:08:17 UTC
    von Veröffentlicht: 09.08.2019 13:45
    1. Kategorien:
    2. SETI.Germany

    Soeben wurde anlässlich des Wow!-Events eine neue Ausgabe des SETI.Germany-Newsletters versendet.

    Für alle, die den Newsletter nicht abonniert haben oder es nach dem letzten Newsletter versäumt haben, ihr Abonnement zu bestätigen, sei auch hier der vollständige Text geteilt:

    SETI.Germany Newsletter #77

    Liebe Mitglieder und Freunde von SETI.Germany,

    vielen Dank, dass ihr nach Erhalt des letzten Newsletters vor drei Monaten bestätigt habt, auch weiterhin Newsletter erhalten zu wollen. Zwar haben drei Viertel der bisherigen Abonnenten nicht reagiert oder konnten aufgrund veralteter Adressen gar nicht mehr erreicht werden, doch die Zahl von etwa 300 bestätigten Abonnenten zeigt, dass durchaus noch immer ein gewisses Interesse an diesem Angebot besteht.

    Mit der heutigen Ausgabe sei auf eine Veranstaltung hingewiesen, in deren Rahmen die Hardware für den Rest des Monats ausgelastet werden kann.


    Inhalt:

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    ------------------------------------------------------------

    1) SETI@Home-Wow!-Event 2019 (15.-29. August)

    Genau 42 Jahre nach der Entdeckung des Wow!-Signals aus Richtung des Sternbildes Schütze und gut 20 Jahre nach dem Start von SETI@home lädt SETI.Germany zum achten SETI@Home-Wow!-Event ein. Zwischen dem 15. August, 18:00 MESZ, und dem 29. August, 18:00 MESZ, können sich Cruncher aus allen Teams miteinander messen, das Projekt mit ihren CPUs und Grafikkarten voranbringen und vielleicht ja sogar ein neues Wow!-Signal finden.

    Für diesen Wettbewerb schließen sich die Teilnehmer einer von zwölf frei wählbaren Gruppen an, die nach den zwölf Tierkreiszeichen benannt sind. Daher ist es auch erforderlich, dass sich jeder Teilnehmer unter Angabe seines SETI@home-Benutzernamens, seiner SETI@home-Benutzer-ID (zu finden auf https://setiathome.berkeley.edu/home.php) und der gewünschten Gruppe auf dieser Seite anmeldet: https://www.seti-germany.de/Wow/register/de

    Weitere Links:
    * SETI@home: https://setiathome.berkeley.edu/
    * Wow!-Event-Seite: https://www.seti-germany.de/Wow/de
    * Thread im Hauptforum: https://www.seti-germany.de/forum/th...%21-Event-2019


    Happy Vollgascrunching!
    von Veröffentlicht: 07.08.2019 07:10
    1. Kategorien:
    2. Projekte

    Eine neue Version der GPU-Anwendungen behebt ein Problem, das dazu führen konnte, dass große Teile der WU auf CPU berechnet werden:

    neue Version der GPU-Anwendungen
    Ich habe festgestellt, dass die bisherige Version der GPU-Anwendungen beim Datensatz 15x271 sehr langsam war. Ich habe das Problem gefunden - ein großer Teil der Diskriminanten war zu groß für die fest programmierte Genauigkeit. Wenn das passiert, übergibt die GPU an die CPU, um damit umzugehen. Daher verbrachte die GPU mehr Zeit im Leerlauf, während sie darauf wartete, dass die CPU die Aufgabe beendet. Als Nebeneffekt konnten die WUs auch fast einen ganzen CPU-Kern nutzen.

    Ich habe die fest programmierte Genauigkeit erhöht und mit den schwierigen Datensätzen sowie dem neuesten Datensatz 16x271 getestet. Das Problem scheint behoben, aber bitte meldet etwaiges unerwartetes Verhalten.
    07.08.2019, 6:39:56 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=396
    new GPU app versions
    I was noticing a slow down with the GPU app versions on the 15x271 data set. I found the problem - a large fraction of the discriminants were exceeding the hard coded precision. When this happens the GPU kicks it back to the CPU to handle. As a result, the GPU spent more time idling as it waited on the CPU to finish the task. A side effect of this was that the WU would also use almost an entire CPU core.

    I increased the hard coded precision and tested on the troublesome data sets as well as the newest 16x271 data set. The issue seems to be fixed, but please report any unexpected behavior.
    7 Aug 2019, 5:39:56 UTC
    von Veröffentlicht: 02.08.2019 07:00
    1. Kategorien:
    2. Allgemein

    Hallo,

    gemeinsam haben wir eines der wirkungsvollsten Anlageportfolios der Welt aufgebaut, mit einem Kreditvolumen von 1,3 Milliarden US-Dollar an 2,6 Millionen Menschen auf der ganzen Welt.

    Aber wir sind noch nicht fertig! Es gibt 1,7 Milliarden Menschen, die immer noch von den traditionellen Finanzierungsformen ausgeschlossen sind. Hier sind einige der Möglichkeiten, wie sich unsere Plattform im Jahr 2019 weiterentwickeln wird, um unseren Einfluss zu erhöhen:


    • Mehr Geld für die Kreditnehmer und weniger auslaufende Kredite. Kredite haben noch 30 Tage Zeit, um Gelder zu beschaffen. Für Kredite, die mit "Finanzierungsmodell: Flexibel" markiert sind, werden wir dem Feldpartner nun den eingeworbenen Betrag zusenden, auch wenn das Darlehen nicht 100% seines Ziels erreicht.

    • Schutz vor Währungsverlusten für Kreditnehmer und Field Partner. Bei einigen Krediten haben die Kreditgeber nun die Möglichkeit, die Field Partner vor schädlichen Währungsabwertungen zu schützen, indem sie das gesamte Risiko eines Währungsverlustes übernehmen. Dieses risikofreie Kapital hilft Field Partners, ihren Cashflow zu stabilisieren und mehr Kreditnehmer zu unterstützen.

    • Verbesserungen an der internen Field-Partner-Plattform von Kiva. Wir verbessern unsere Werkzeuge und technische Unterstützung, um unsere Field Partner so zu unterstützen, dass sie so viele Kreditnehmer wie möglich zu erreichen.


    Diese Veränderungen werden nicht über Nacht stattfinden, aber sie werden uns helfen, unseren Einfluss zu erhöhen. Um diese Verbesserungen zu unterstützen und die Wirkung von Kiva weiter zu steigern, bitten wir ausgewählte Field Partner, kleine Plattform-Servicegebühren zu zahlen, während wir weiterhin Technologien entwickeln, um den Zugang zu verbessern und die Kapitalkosten zu senken. Klicke hier, um die vollständige Ankündigung zu lesen.

    Danke, dass du Teil von Kivas Reise und der Bewegung für finanzielle Integration bist!


    Originaltext:
    Zitat Zitat von Newsletter vom 01.08.2019
    Together, we’ve built one of the most impactful investment portfolios on the planet, with $1.3 billion in loans to 2.6 million people around the world.

    But we’re not done! There are 1.7 billion people who are still excluded from traditional forms of financing. Here are a few of the ways our platform will evolve in 2019 to grow our impact:


    • More money to borrowers and fewer expiring loans. Loans will still have 30 days to fundraise. However, for loans marked “Funding model: Flexible,” we will now send the Field Partner the amount raised even if the loan doesn’t reach 100% of its goal.

    • Currency loss protection for borrowers and Field Partners. For some loans, lenders now have the opportunity to protect Field Partners from harmful currency devaluations by taking on all risk of currency loss. This risk-free capital helps Field Partners stabilize their cash flow and support more borrowers.

    • Improvements to Kiva’s internal Field Partner platform. We’re improving our tools and technical assistance to help our Field Partners reach as many borrowers as possible.


    These changes won’t happen overnight, but they will help us increase our impact. To support these improvements and continue to grow Kiva’s impact, we are asking select Field Partners to contribute small platform service fees as we continue to build technologies to increase access and lower the cost of capital. Click here to read the full announcement.

    Thanks for being part of Kiva's journey and the movement for financial inclusion!
    von Veröffentlicht: 01.08.2019 17:00
    1. Kategorien:
    2. Wow!-Event



    SETI.Germany lädt zum achten SETI@Home Wow!-Event seiner Geschichte ein. Das SETI-Event findet vom 15. August 18:00 MESZ (= 16:00 UTC) bis 29. August 2019 18:00 MESZ (= 16:00 UTC) statt. 42 Jahre nach Entdeckung des Wow Signals statt. SETI.Germany lädt alle Teams ein, bei dem Event mitzumachen. Dazu stehen 12 Gruppen zur Auswahl:

    Aries
    Aquarius
    Cancer
    Capricornus
    Gemini
    Leo
    Libra
    Pisces
    Sagittarius
    Scorpio
    Taurus
    Virgo

    Ihr könnt euch eine Gruppe aussuchen, bei der ihr mitrechnen wollt.

    In den nächsten Tagen gehen Einladungsmails an die Teamleader der verschiedenen Teams raus. Wir bitten Teammitglieder, die Zugriff auf andere Foren haben, dort Einladungsthreads zu erstellen. Unterstützung ist gerne gesehen.


    Hier erfahrt ihr Näheres über das Event:

    42 Jahre nach der Entdeckung des Wow Signals am 15. August 1977, welches aus Richtung des Sternbildes Schütze empfangen wurde, wird es Zeit die Mutter aller BOINC-Projekte gebührend zu ehren. SETI.Germany ruft daher vom 15. August 18:00 MESZ (= 16:00 UTC) bis 29. August 2019 18:00 MESZ (= 16:00 UTC) zum achten SETI@Home Wow!-Event in seiner Geschichte auf.

    Die aktuelle BOINC Software und Anleitung zum Installieren von SETI gibt es auf der Homepage von SETI.

    Jeder, der daran teilnehmen möchte, muss sich auf dieser Seite anmelden.

    Bunkern von Pendings vor Event-Start ist nicht nur erlaubt, sondern gern gesehen! Es soll mal wieder richtig viel für SETI@home gearbeitet werden und somit eine große Unterstützung erfolgen. Also scheut euch nur nicht, schon vor Event-Start mit allen zur Verfügung stehenden CPUs & GPUs bei SETI@home einzusteigen.

    Und wer weiß vielleicht seid gerade ihr es, die ein neues Wow!-Signal finden und damit nicht nur in die Geschichte des Grid-Computing eingehen werdet.


    SETI.Germany wünscht euch viel Spaß beim SETI@Home Wow!-Event 2019.

    Seite 3 von 107 Erste 1 2 3 4 5 13 53 103 ... Letzte
Single Sign On provided by vBSSO