• Projekte

    von Veröffentlicht: 16.08.2019 18:45
    1. Kategorien:
    2. Projekte

    Die Gesamtzahl der Primzahlfunde ist im Juli etwas zurückgegangen, da der markante Zuwachs bei den mittelgroßen Funden (nicht zuletzt dank der Challenge zum Jahrestag der ersten Mondlandung) den Rückgang bei den sehr großen und sehr kleinen Primzahlfunden nicht ganz ausgleichen konnte. An insgesamt 138 Funden waren Mitglieder von SETI.Germany zwölfmal als Erstfinder und dreimal als Doublechecker beteiligt.

    Keine Top-100-, aber fünf kleinere Megaprimzahlen wurden gefunden, eine der entsprechenden WUs landete sogar ausschließlich auf Rechnern von SETI.Germany-Mitgliedern:

    • Die 1095538-stellige Proth-Primzahl 567*2^3639287+1 wurde am 02.07.2019 um 21:33:53 MEZ von TeardropOnFire aus dem Vereinigten Königreich mit einem Intel Core i7-8750H gefunden, wobei für den Primalitätstest mit LLR etwa 3 Stunden 9 Minuten benötigt wurden. Die Bestätigung erfolgte am 06.07.2019 um 18:27:49 MEZ durch 288larsson (Team: Sicituradastra.) aus Schweden mit einem Intel Core i9-7980XE, wobei für den Primalitätstest mit LLR etwa 47 Minuten benötigt wurden.

    • Die 1000259-stellige Proth-Primzahl 8619*2^3322774+1 wurde am 27.07.2019 um 14:15:56 MEZ von Randall J. Scalise aus den Vereinigten Staaten mit einem Intel Core i5-4590 gefunden, wobei für den Primalitätstest mit LLR etwa 1 Stunde 33 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch neuralstatic aus den Vereinigten Staaten mit einem Intel Core i9-9900K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 10 Minuten benötigt wurden.

    • Die 1021215-stellige verallgemeinerte Fermat-Primzahl 61837354^131072+1 wurde am 28.07.2019 um 07:01:28 MEZ von dh1saj (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1080 in Verbund mit einem Intel Core i7-3770 gefunden, wobei für den PRP-Test mit Genefer 6 Minuten 39 Sekunden benötigt wurden. Die Bestätigung erfolgte am 28.07.2019 um 07:08:28 MEZ durch Patrick Schmeer (SETI.Germany) aus Deutschland mit einer NVIDIA GeForce GTX 1060 3GB in Verbund mit einem Intel Core i7-7700, wobei für den PRP-Test mit Genefer 11 Minuten 33 Sekunden benötigt wurden.

    • Die 1000270-stellige Proth-Primzahl 9485*2^3322811+1 wurde am 28.07.2019 um 12:09:59 MEZ von Robert Hoffman aus den Vereinigten Staaten mit einem Intel Xeon E5-2687W v2 gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 37 Minuten benötigt wurden. Die Bestätigung erfolgte am 29.07.2019 um 12:48:45 MEZ durch Wenjie Zheng (Team China) aus China mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 1 Stunde 37 Minuten benötigt wurden.

    • Die 1000302-stellige Proth-Primzahl 6505*2^3322916+1 wurde am 31.07.2019 um 07:52:30 MEZ von vko (University of Maryland) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 2 Threads etwa 20 Minuten benötigt wurden. Die Bestätigung erfolgte am 31.07.2019 um 05:31:45 MEZ durch 288larsson (Sicituradastra.) aus Schweden mit einem Intel Core i7-7820X, wobei für den Primalitätstest mit LLR etwa 37 Minuten benötigt wurden.


    Die Challenge brachte auch einen erweiterten verallgemeinerten Fermatzahl-Teiler hervor:

    • Die 827916-stellige Proth-Primzahl 701*2^2750267+1 ist ein Teiler der erweiterten verallgemeinerten Fermat-Zahl xGF(2750266,7,4)=7^2^2750266+4^2^2750266. Sie wurde am 15.07.2019 um 21:44:50 MEZ von bcavnaugh (Crunching@EVGA) aus den Vereinigten Staaten mit einem Intel Core i9-7940X gefunden, wobei für den Primalitätstest mit LLR auf 4 Threads etwa 5 Minuten benötigt wurden. Die Bestätigung erfolgte am 17.07.2019 um 09:52:20 MEZ durch Sebastian* (Sicituradastra.) aus Deutschland mit einem Intel Core i7-4790K, wobei für den Primalitätstest mit LLR etwa 29 Minuten benötigt wurden.


    Die Verteilung der 132 weiteren Primzahlfunde ist wie folgt:

    • Proth Prime Search (PPS): 29 Funde im Bereich 2739805 ≤ n ≤ 2794357 (824767-841189 Dezimalstellen), darunter drei Erstfunde von DeleteNull sowie ein Erstfund von pschoefer
    • Proth Prime Search Extended (PPSE): 11 Funde im Bereich 1541791 ≤ n ≤ 1543398 (464130-464613 Dezimalstellen), darunter ein Erstfund von ID4
    • Sophie Germain Prime Search (SGS): 32 Funde im Bereich 4540486653657 ≤ k ≤ 4574123792997 (388342 Dezimalstellen), darunter drei Erstfunde und ein Doublecheck von DeleteNull sowie ein Erstfund und ein Doublecheck von trebotuet
    • Generalized Fermat Prime Search (n=15): 44 Funde im Bereich 131174206 ≤ b ≤ 135038646 (266006-266419 Dezimalstellen), darunter ein Erstfund von boss
    • Generalized Fermat Prime Search (n=16): 13 Funde im Bereich 63722348 ≤ b ≤ 64758794 (511463-511922 Dezimalstellen), darunter ein Erstfund von EmmettDe
    • Generalized Fermat Prime Search (n=17): 3 Funde im Bereich 15567144 ≤ b ≤ 15731520 (942698-943296 Dezimalstellen)


    von Veröffentlicht: 11.08.2019 13:15
    1. Kategorien:
    2. Projekte

    Wie ihr vielleicht gehört habt, wurde das Institute for Protein Design kürzlich als Teil des Audacious Project ausgewählt. Diese groß angelegte philanthropische Zusammenarbeit, die eine Folge der Verleihung des TED-Preises ist, fördert und finanziert Projekte mit dem Potenzial, die Welt zu verändern.

    Infolgedessen erweitern wir unser Team von Wissenschaftlern und Ingenieuren in Seattle, die gemeinsam an der Weiterentwicklung von Rosetta, unserer Software für Proteindesign und Strukturvorhersage, arbeiten werden. Die Finanzierung wird es uns auch ermöglichen, in die Ausrüstung, die Labormittel und den Laborraum zu investieren, der für die Entwicklung und den Test von Millionen synthetischer Proteine benötigt wird.

    Welche Herausforderungen werden wir angehen? Seht euch meinen TED-Vortrag an, um es herauszufinden.

    All diese Arbeit - wie alles, was wir tun - hängt von euch, den Teilnehmern von Rosetta@home ab. Ob es um die Entwicklung maßgeschneiderter Nanomaterialien oder sicherere Krebstherapien geht, wir setzen auf die Plattform Rosetta@home. Wir können euch nicht genug danken, dass ihr euch die Zeit genommen haben, an dieser spannenden Forschung teilzunehmen, und wir hoffen, ihr erzählt mindestens einem Freund, dass auch er allein durch den Betrieb von Rosetta@home eine Rolle bei der Revolution des Proteindesigns spielen kann.

    Vielen Dank,

    David Baker
    Direktor, Institute for Protein Design

    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13145#90826
    As you may have heard, the Institute for Protein Design was recently selected as part of The Audacious Project. This large-scale philanthropic collaboration, which is the successor to the TED Prize, surfaces and funds projects with the potential to change the world.

    As a result, we are expanding our Seattle-based team of scientists and engineers who will work together to advance Rosetta, our software for protein design and structure prediction. The funding will also allow us to invest in the equipment, supplies and lab space needed to design and test millions of synthetic proteins.

    What challenges will we be tackling? Watch my TED talk to find out.

    All of this work — like everything we do — will depend on you, the participants in Rosetta@home. Whether it’s creating custom nanomaterials or safer cancer therapies, we rely on the Rosetta@home distributed computing platform. We cannot thank you enough for taking the time to be a part of this exciting research, and we hope you tell at least one friend that they too can play a role in the protein design revolution just by running Rosetta@home.

    Thank you,

    David Baker
    Director, Institute for Protein Design
    von Veröffentlicht: 11.08.2019 13:10
    1. Kategorien:
    2. Projekte

    Erste Zahlen zur kürzlich begonnenen Suche nach orthogonalen diagonalen lateinischen Quadraten (engl. orthogonal diagonal Latin squares, ODLS) zehnter Ordnung wurden bekanntgegeben. Die 15318 im Juli bearbeiteten WUs enthielten keine ODLS, aber einige teilweise orthogonale Quadrate mit einem Orthogonalitätsgrad bis 88. Es waren 86 Teilnehmer am Fund von 163 Quadrat-Paaren mit Orthogonalitätsgrad 86, 10 Paaren mit Grad 87 und 4 Paaren mit Grad 88 beteiligt, darunter mit [SG-2W]Kurzer, [SG]steini, Roadranner, axels, VogeL und Novalor auch Mitglieder von SETI.Germany.

    Außerdem wurde die Anwendung noch etwas verbessert, indem einige Quadrate schneller von der Suche ausgeschlossen werden:

    Neue Version der Anwendung für Ordnung 10
    Liebe Teilnehmer!

    Wir verteilen eine neue Version der Anwendung für die Suche im Raum der Quadrate zehnter Ordnung. Sie wird schneller sein als die bisherige Version, da einige Kombinationen, die zu keinem Ergebnis führen, frühzeitiger ausgeschlossen werden - wir haben einen Filter eingebaut, der Kombinationen mit gleichen Zeilen an einer Stelle ausschließt. Ein Beispiel für eine ähnliche Kombination könnt ihr in den Zahlen für Juli 2019 ansehen.

    Wir gehen davon aus, dass die Ergebnisse von mit verschiedenen Versionen der Anwendung berechneten WUs sich unterscheiden und als ungültig markiert werden könnten. Wir schätzen aber, dass die Zahl solcher Ergebnisse recht klein sein wird - einige zehn, vielleicht 100 oder 200. Wenn ihr solche WUs beobachtet, meldet sie bitte in diesem Thread!

    Danke für eure Aufmerksamkeit für das Projekt und die Teilnahme!
    07.08.2019, 22:08:17 MEZ

    Originaltext:
    Zitat Zitat von https://rake.boincfast.ru/rakesearch/forum_thread.php?id=192
    New version of application for Rank 10
    Dear participants!

    We deploy a new version of the application for search in rank 10 space. It will be faster than the previous version due to the earlier exclusion of some combinations that do not lead to a result - we add a filter for excluding combinations with the same rows in one position. Example of a similar combination you can view in July 2019 totals.

    We expect that the results for the same workunit processed by the different versions of the application may differ and marked as incorrect. But in our estimation, the number of such results will be relatively small - about several tens, maybe 100 or 200. If you face with such workunits - post these numbers in this thread, please!

    Thank you for attention for the project and participation!
    7 Aug 2019, 21:08:17 UTC
    von Veröffentlicht: 07.08.2019 07:10
    1. Kategorien:
    2. Projekte

    Eine neue Version der GPU-Anwendungen behebt ein Problem, das dazu führen konnte, dass große Teile der WU auf CPU berechnet werden:

    neue Version der GPU-Anwendungen
    Ich habe festgestellt, dass die bisherige Version der GPU-Anwendungen beim Datensatz 15x271 sehr langsam war. Ich habe das Problem gefunden - ein großer Teil der Diskriminanten war zu groß für die fest programmierte Genauigkeit. Wenn das passiert, übergibt die GPU an die CPU, um damit umzugehen. Daher verbrachte die GPU mehr Zeit im Leerlauf, während sie darauf wartete, dass die CPU die Aufgabe beendet. Als Nebeneffekt konnten die WUs auch fast einen ganzen CPU-Kern nutzen.

    Ich habe die fest programmierte Genauigkeit erhöht und mit den schwierigen Datensätzen sowie dem neuesten Datensatz 16x271 getestet. Das Problem scheint behoben, aber bitte meldet etwaiges unerwartetes Verhalten.
    07.08.2019, 6:39:56 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=396
    new GPU app versions
    I was noticing a slow down with the GPU app versions on the 15x271 data set. I found the problem - a large fraction of the discriminants were exceeding the hard coded precision. When this happens the GPU kicks it back to the CPU to handle. As a result, the GPU spent more time idling as it waited on the CPU to finish the task. A side effect of this was that the WU would also use almost an entire CPU core.

    I increased the hard coded precision and tested on the troublesome data sets as well as the newest 16x271 data set. The issue seems to be fixed, but please report any unexpected behavior.
    7 Aug 2019, 5:39:56 UTC
    von Veröffentlicht: 30.07.2019 13:00
    1. Kategorien:
    2. Projekte

    Nur kurz ist die Pause nach der vorigen Challenge, hoffentlich aber genug Zeit, dass die Temperaturen wieder in einen ähnlich angenehmen Bereich fallen. Die August-Challenge ist Lennart Vogel gewidmet, ohne dessen Arbeit in früheren Jahren PrimeGrid nicht das wäre, was es heute ist, und der hoffentlich in diesen Tagen seinen 65. Geburtstag feiert.

    Lennart Vogel Honorary Challenge
    Beginn: 03.08.2019, 00:00 UTC = 01:00 MEZ = 02:00 MESZ
    Ende: 10.08.2019, 00:00 UTC = 01:00 MEZ = 02:00 MESZ
    Subprojekt: Extended Sierpinski Problem LLR (ESP)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs des Subprojekts Extended Sierpinski Problem LLR (ESP), die nach dem 03.08. um 02:00 Uhr heruntergeladen und vor dem 10.08. um 02:00 Uhr zurückgemeldet werden! Das gewünschte Subprojekt kann in den PrimeGrid-Einstellungen festgelegt werden.

    Anwendungen gibt es für Windows, Linux und MacOS (Intel), jeweils 32- und 64-Bit. Wer in den letzten Monaten keine WUs von einem PrimeGrid-LLR-Subprojekt berechnet hat, sollte dies vielleicht schon vor der Challenge mit kleineren WUs wie SGS nachholen, um die relativ große Anwendung (~35 MB) bereits auf dem Rechner zu haben.

    Die verwendete LLR-Anwendung belastet die CPU sehr stark und toleriert keinerlei Fehler. Daher bitte nicht zu stark übertakten und auf gute Kühlung achten!

    Die Laufzeiten liegen auf aktuellen CPUs im Bereich von einigen Stunden, sofern mehrere CPU-Kerne an einer WU arbeiten, was auf den meisten Rechnern auch im Hinblick auf die Effizienz zu empfehlen ist. Das lässt sich mit einer app_config.xml erreichen (im Beispiel für 4 Kerne):
    Code:
    <app_config>
      <app_version>
        <app_name>llrESP</app_name>
        <cmdline>-t 4</cmdline>
        <avg_ncpus>4</avg_ncpus>
      </app_version>
    </app_config>
    Dieser Text muss als app_config.xml im Unterverzeichnis projects\www.primegrid.com des BOINC-Datenverzeichnisses (unter Windows standardmäßig C:\ProgramData\BOINC) gespeichert werden. Die Einstellung wird durch Konfigurationsdatei einlesen oder Neustart für neue WUs übernommen.

    In jedem Fall haben moderne Intel-CPUs durch die automatisch benutzten Optimierungen (AVX, FMA3, AVX-512) einen erheblichen Vorteil. CPUs, die Hyperthreading unterstützen, laufen oft effizienter, wenn Hyperthreading nicht benutzt wird.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Quorum von 2 übereinstimmenden Ergebnissen erreicht ist.

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Team-Stats bei SETI.Germany
    Detail-Statistik für SETI.Germany
    User-Stats bei SETI.Germany

    Zum Diskussionsthread
    von Veröffentlicht: 28.07.2019 22:55
    1. Kategorien:
    2. Projekte

    In Vorbereitung eines kommenden Fachartikels stellt das Projekt nun eine Datenbank der Simulationsergebnisse für Populationen Schwarzer Löcher in unterschiedlichen Umgebungen bereit:

    Ergebnisdatenbanken
    Nach der letzten Server-Aktualisierung habe ich auch Netzwerkspeicher mit Ergebnisdatenbanken vorbereitet.
    Hier ist die Ergebnisseite, auf welcher ihr alle von unserem Projekt bearbeiteten Daten herunterladen könnt.
    26.07.2019, 18:12:14 MEZ

    Originaltext:
    Zitat Zitat von https://universeathome.pl/universe/forum_thread.php?id=436
    Results databases
    After last server update I have also prepared NFS based folders with results databases.
    So, here is rsults page where you can download all processed data from our project.
    26 Jul 2019, 17:12:14 UTC
    von Veröffentlicht: 28.07.2019 22:45
    1. Kategorien:
    2. Projekte

    Eine zu aggressiv eingestellte serverseitige Firewall kann derzeit für Verbindungsprobleme zum Projekt sorgen. Wer geblockt wurde, kann zwar manuell entsperrt werden, das dürfte aber praktisch nur für Teilnehmer mit fester IP-Adresse sinnvoll sein.

    Schwarze Liste der Firewall
    Ich wurde darauf aufmerksam gemacht, dass einige Teilnehmer auf die Schwarze Liste des Firewall-Systems der Universität gelandet sind. Das bedeutet üblicherweise, dass der Teilnehmer keine Aufgaben herunterladen oder sich auch nur mit der Webseite verbinden kann.

    Wir versuchen derzeit, die Einschränkungen der Firewall zu verringern, damit das nicht mehr passiert. In der Zwischenzeit kann ich als Notlösung die IT-Abteilung bitten, einzelne IP-Adressen auf die Weiße Liste zu setzen.

    Falls ihr oder jemand, den ihr kennt, Verbindungsprobleme habt, lasst es mich wissen, damit ich euch auf die Weiße Liste setzen lassen kann.
    27.07.2019, 3:07:06 MEZ

    Originaltext:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/forum_thread.php?id=389
    firewall black listing
    It has come to my attention that some users have been black listed by the university firewall system. This usually means that the volunteer cant download tasks or even connect to the website.

    We are currently looking at ways to reduce the firewall restrictions so this will stop happening. In the meantime, the work around is for me to request the IT department to white list an IP address on an individual basis.

    If you or someone you know is experiencing connection problems, please let me know so I can have them added to the white list.
    27 Jul 2019, 2:07:06 UTC
    von Veröffentlicht: 28.07.2019 22:25
    1. Kategorien:
    2. Projekte

    Eine Nachricht vom Tomáš Brada Experimental Grid beschreibt die technischen Abläufe des laufenden Subprojekts zu pseudo-assoziativen diagonalen lateinischen Quadraten (engl. pseudo-associative diagonal Latin squares, PADLS):

    Subprojekt PADLS Total läuft einwandfrei
    Besser spät als nie. Das in diesem Thread beschriebene PADLS-Total-Experiment (russ.) läuft einwandfrei auf diesem Server und produziert gute Ergebnisse.

    Technischer Hintergrund: Der Suchbereich wurde in sogenannte Segmente aufgeteilt. Aus jedem Segment wird eine WU erzeugt. Die WUs können beliebig groß sein, derzeit sind sie so eingestellt, dass sie etwa zwei Stunden auf meinem Rechner laufen. Sobald das Ergebnis einer WU an den Server gemeldet wird, greift das Validator-Programm es auf. Das Programm überprüft die Gültigkeit des Ergebnisses, speichert das Ergebnis in der Datenbank und erzeugt eine neue WU, um das Segment weiter zu bearbeiten.

    Die Ergebnisse werden zweimal am Tag exportiert und können als Text- oder SQL-Datei heruntergeladen werden.

    Der Suchalgorithmus ist nicht der effizienteste, gibt aber vernünftige Ergebnisse. Es wurde angeregt, das Subprojekt auf dem Server boinc.Progger.info zu installieren.
    25.07.2019, 9:37:19 MEZ

    Originaltext:
    Zitat Zitat von https://boinc.tbrada.eu/forum_thread.php?id=3039
    Padls Total subproject running fine
    Better late than never. The PADLS Total experiment described in this thread is running fine on this server and is producing good results.

    Technical: the search space has been split to so called segments. From each segment one workunit is generated. The workunits can be made any size, but are currently set to run approximately two hours on my computer. Once result of a workunit is returned to the server, it is picked up by the validator program. This program checks the result validity, saves the result into the database and generates a new workunit to continue processing the segment.

    Results are exported twice a day in, and they are available for download as text or sql.

    The search algorithm is not the most efficient, but gives reasonable results. A effort was initiated to install the subproject over at boinc.Progger.info server.
    25 Jul 2019, 8:37:19 UTC
    von Veröffentlicht: 21.07.2019 08:45
    1. Kategorien:
    2. Projekte

    Am morgigen Montag, den 22. Juli, werden einige Teile der Projektinfrastruktur neu gestartet, was dazu führen wird, dass laufende WUs des Subprojekts CMS Simulation abbrechen werden. Der zuständige Administrator rät daher dazu, rechtzeitig keine neuen Aufgaben mehr herunterzuladen:

    CMS@Home-Unterbrechung am Montag, den 22. Juli
    Ich habe die folgende Nachricht aus der CERN/CMS-IT-Abteilung bekommen:

    >> als Folge der Hypervisor-Neustartserie, die von der CERN-IT hier angekündigt wurde: https://cern.service-now.com/service...o?n=OTG0051185
    >> werden die folgenden Virtuellen Maschinen, die zum CMS-Production-Openstack gehören, am Montag, den 22. Juli ab 08:30 MESZ neu gestartet:
    ...
    >> | vocms0267 | cern-geneva-b | cms-home

    worauf ich antwortete:
    > Danke Alan. Auf vocms0267 läuft das CMS@Home-Projekt. Sollte ich die Freiwilligen vor der Unterbrechung warnen oder wird das eher unsichtbar verlaufen?

    und diese Antwort erhielt:
    Laufende Aufgaben werden fehlschlagen, da sie sich nicht mit dem schedd-condor_shadow-Dienst verbinden können. Das wird die für die Teilnehmer sichtbare Auswirkung sein. Es wird auch ein kurzes Zeitfenster geben (bis ich den Software-Agenten neu gestartet habe), in welchem keine ausstehenden Aufgaben im Condor-Pool sein werden.
    Also könnte es sinnvoll sein, die Teilnehmer zu informieren.

    Meine Empfehlung ist daher, dass ihr ab Sonntagnachmittag keine neuen Aufgaben von CMS@Home zulasst, damit die laufenden Aufgaben vor dem Neustart um 08:30 MESZ fertig werden. Ich lasse euch wissen, sobald Alan mich informiert, dass vocm0267 wieder läuft.
    17.07.2019, 14:14:12 MEZ

    Originaltext:
    Zitat Zitat von https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=5087
    CMS@Home disruption, Monday 22nd July
    I've had the following notice from CERN/CMS IT:

    >> following the hypervisor reboot campaign, as announced by CERN IT here: https://cern.service-now.com/service...o?n=OTG0051185
    >> the following VMs - under the CMS Production openstack project - will be rebooted on Monday July 22 (starting at 8:30am CERN time):
    ...
    >> | vocms0267 | cern-geneva-b | cms-home

    to which I replied:
    > Thanks, Alan. vocms0267 runs the CMS@Home campaign. Should I warn the volunteers of the disruption, or will it be mainly transparent?

    and received this reply:
    Running jobs will fail because they won't be able to connect to the schedd condor_shadow process. So this will be the visible impact on the users. There will be also a short time window (until I get the agent restarted) where there will be no jobs pending in the condor pool.
    So it might be worth it giving the users a heads up.

    So, my recommendation is that you set "No New Tasks" for CMS@Home sometime Sunday afternoon, to let tasks complete before the 0830 CST restart. I'll let you know as soon as Alan informs me that vocm0267 is up and running again
    17 Jul 2019, 13:14:12 UTC
    von Veröffentlicht: 20.07.2019 18:30
    1. Kategorien:
    2. Projekte

    Rosetta@home hat zu zwei neuen Veröffentlichungen beigetragen, die an dieser Stelle nicht vorenthalten werden sollen.

    Koevolution im Proteombereich
    Letzte Woche wurde in der Zeitschrift Science ein Bericht veröffentlicht, der die Identifizierung von Hunderten von bisher nicht charakterisierten Protein-Protein-Interaktionen bei E. coli und dem pathogenen Bakterium M. tuberculosis beschreibt. Dazu gehören sowohl bisher unbekannte Proteinkomplexe als auch bisher nicht charakterisierte Komponenten bekannter Komplexe. Diese Forschung wurde von Qian Cong geleitet, dessen Team auch der ehemalige Baker-Laborabsolventen Sergey Ovchinnikov, heute John Harvard Distinguished Science Fellow in Harvard, angehört. Rosetta@home wurde für einen Großteil der für diese Arbeit erforderlichen Datenverarbeitung verwendet. Herzlichen Glückwunsch und Dank an alle R@h-Freiwilligen.

    Für weitere Informationen über diese Arbeit klicken Sie bitte hier.

    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13197#90911
    Last week, a report was published in Science describing the identification of hundreds of previously uncharacterized protein–protein interactions in E. coli and the pathogenic bacterium M. tuberculosis. These include both previously unknown protein complexes and previously uncharacterized components of known complexes. This research was led by postdoctoral fellow Qian Cong and included former Baker lab graduate student Sergey Ovchinnikov, now a John Harvard Distinguished Science Fellow at Harvard. Rosetta@home was used for much of the computing required for this work. Congratulations and thank you to all R@h volunteers.

    For more information about this work click here.



    Protein-Arrays auf mineralischen Oberflächen
    Letzte Woche veröffentlichte das Baker Lab in Zusammenarbeit mit dem De Yoreo Labor bei PNNL einen Bericht in Nature, der das Design von synthetischen Proteinarrays beschreibt, die sich auf der Oberfläche von Glimmer, einem gewöhnlichen und außergewöhnlich glatten kristallinen Mineral, zusammensetzen. Diese Arbeit bietet eine Grundlage für das Verständnis, wie Protein-Kristall-Interaktionen systematisch programmiert werden können. Obwohl R@h nicht direkt für diese Forschung verwendet wurde, wurden zuvor entworfene Untereinheiten mit R@h validiert. Herzlichen Glückwunsch an alle R@h-Freiwilligen und vielen Dank für Ihre kontinuierlichen Beiträge.

    Für weitere Informationen klicken Sie bitte hier.

    Originaltext:
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/forum_thread.php?id=13196
    Last week, the Baker Lab in collaboration with the De Yoreo lab at PNNL published a report in Nature describing the design of synthetic protein arrays that assemble on the surface of mica, a common and exceptionally smooth crystalline mineral. This work provides a foundation for understanding how protein-crystal interactions can be systematically programmed. Although R@h was not directly used for this research, previously designed subunits were validated using R@h. Congratulations to all R@h volunteers and thank you for your continued contributions.

    For more details click here.
    Seite 1 von 66 1 2 3 11 51 ... Letzte
Single Sign On provided by vBSSO