Seite 5 von 5 Erste ... 3 4 5
Ergebnis 101 bis 122 von 122

  1. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #101

    Standard

    bei mir laufen jetzt fast dauerhaft opng wus, ich bekomm die immer in 10er Schlägen. Wenn sich einer dem Ende neigt, ist normalerweise der nächste da .


  2. Titel
    Neuling

    Bewertung

    Registriert am
    21.06.2018

    Ort
    Rheine

    Beiträge
    17

    Danke
    Danke gesagt 0   Danke erhalten 0

    #102

    Standard

    Heute kamen ganze 2 Wu´s an.
    Gestern waren es gute 77.
    Mal abwarten


  3. Titel
    Junior Member

    Bewertung

    Registriert am
    17.06.2012

    Beiträge
    84

    Danke
    Danke gesagt 4   Danke erhalten 0

    #103

    Standard

    Zitat Zitat von Felix_M_ Beitrag anzeigen
    bei mir laufen jetzt fast dauerhaft opng wus, ich bekomm die immer in 10er Schlägen. Wenn sich einer dem Ende neigt, ist normalerweise der nächste da .
    Mh..mit was rechnest du?
    Zumindest in den öffentlichen Statistiken sehe ich niemanden der wirklich extrem viele Punkte macht bei Seti-Germany.
    Ich bräuchte alle 2-5 Minuten 16 neue GPU-WUs um die Grafikkarte richtig auszulasen :/


  4. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #104

    Standard

    Zitat Zitat von Stiwi Beitrag anzeigen
    Mh..mit was rechnest du?
    Zumindest in den öffentlichen Statistiken sehe ich niemanden der wirklich extrem viele Punkte macht bei Seti-Germany.
    Ich bräuchte alle 2-5 Minuten 16 neue GPU-WUs um die Grafikkarte richtig auszulasen :/
    hab leider nur ne GTX960, und die läuft auch nicht den ganzen Tag, nur wenn ich daheim und sowieso am PC bin. Quasi nach ursprünglichem BOINC-Gedanken.
    Meinen Stats nach waren es gestern knapp 38k BOINC-Credit.


  5. Titel
    Junior Member

    Bewertung

    Registriert am
    17.06.2012

    Beiträge
    84

    Danke
    Danke gesagt 4   Danke erhalten 0

    #105

    Standard

    Ok dann hast du scheinbar deutlich mehr Glück als ich bei den GPU-WUs


  6. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #106

    Standard

    laut boinctasks habe ich heute bis jetzt 75 Wus bekommen. und das seit ca halb 10

  7. Avatar von Urs
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.02.2017

    Ort
    NRW

    Beiträge
    1.396

    Danke
    Danke gesagt 19   Danke erhalten 28

    #107

    Standard

    Mein Schrabbelrechner (i5 3570s) ohne Graka braucht pro OPNG wu ca. 1,5-2,1 Stunden. 500-800 Punkte.
    Mal so als Info.

  8. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #108

    Standard

    Ryzen 9 5900X @ 4.05 GHz: 1:22 h für 2 OPN WUs pro Kern (also mit SMT). Insgesamt ca. 30k RAC mit 11 Kernen für WCG (alle Projekte).

    MrS

    - - - Aktualisiert - - -

    Zitat Zitat von [ETA]MrSpadge Beitrag anzeigen
    Hab mal nachgeschaut: mein BOINC fragt WCG nur noch nach CPU-Arbeit. WTF? Außerdem hat es vermutlich seit dem "Stress Test" einen noch viel größeren Puffer an WCG Arbeit angelegt: schätzungsweise 1-2 Tage bei einer Einstellung von 0,05 Tagen.
    Ich hab des Rätsels Lösung:

    1. Die OPNG WUs werden basierend auf den Angaben in den WUs auf eine zu lange Laufzeit eingeschätzt. Die reale Laufzeit liegt deutlich darunter. Mit der Zeit passt BOINC dann den "result duration correction factor" entsprechend an. Das passiert pro Projekt, also für ganz WCG. Für die CPU WUs sehe ich zwar keine erhöhten Laufzeit-Schätzungen, aber das würde zum,indest erklären, warum sich mein BOINC seit dem "Stresstest" so dermaßen mit WCG CPU WUs vollsaugt.

    2. Ich hatte zwischendurch den Puffer auf 0,02 Tage und zusätzlich 0 Tage eingestellt. Damit hatte ich nur noch CPU WUs für ca. 1 Tag bekommen. Aber: immer wenn eine Einstein-GPU-WU fertig war (-> GPU Puffer weniger als 0,02 Tage), hat er sich eine neue gezogen (-> GPU Puffer mehr als 0,02 Tage). Damit war der GPU-Puffer wieder gefüllt und BOINC hat nicht nach mehr WCG GPU-Arbeit gefragt, obwohl der ressource share für WCG um mehrere Größenordnungen höher ist.
    Hab jetzt 0,02 + 0,03 Tage eingestellt und wieder OPN GPU WUs bekommen

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  9. Titel
    Full Member

    Bewertung

    Registriert am
    31.03.2020

    Beiträge
    178

    Danke
    Danke gesagt 0   Danke erhalten 0

    #109

    Standard

    Gibt es noch GPU WU ?
    Nach dem Pentathlon wollt ich wieder bei der GPU einsteigen.
    Intel Core i7-9700K, GTX 1660 Super, 32GB DDR4 - Raspberry Pi 4 - boincstats - Join World Community Grid

  10. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #110

    Standard

    Zitat Zitat von DerLetzteGermane Beitrag anzeigen
    Gibt es noch GPU WU ?
    Ja, gibt es.

    Immer mal so, mal so.
    Grüße aus dem fernen Taiwan

  11. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.269

    Danke
    Danke gesagt 14   Danke erhalten 75

    #111

    Standard

    Ich seh nur an den "points generated" in der "contribution history" im WCG Profil, dass da immer mal welche dabei sein müssen.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  12. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #112

    Standard

    ich hab immernoch eigentlich dauerhaft GPU-Arbeit

  13. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #113

    Standard

    Hier die deutsche Übersetzung des Mai-Updates für OPN:

    GPU-Arbeitseinheiten

    Wir haben kürzlich den Betatest abgeschlossen und GPU-Arbeitseinheiten für dieses Projekt freigegeben. Derzeit sendet das Projekt alle 30 Minuten 1.700 neue Arbeitseinheiten aus. Wir gehen davon aus, dass wir in absehbarer Zukunft GPU-Arbeitseinheiten in diesem Tempo versenden werden.

    Wir werden weiterhin regelmäßige Arbeitseinheiten erstellen und veröffentlichen, die CPU-Leistung verwenden. Dies wird dazu beitragen, dass die Arbeit in einem guten Tempo weiterläuft, und wird sicherstellen, dass jeder teilnehmen kann, der Rechenleistung beisteuern möchte.

    Stresstest der technischen Infrastruktur des World Community Grid

    Anfang des Monats wollte das technische Team des World Community Grid die Obergrenze der Rechenleistung für das Programm bestimmen und herausfinden, ob die aktuelle Infrastruktur die Last tragen kann, wenn wir genügend GPU-Arbeit zur Verfügung stellen, um die Nachfrage zu decken.

    Die Wissenschaftler für OpenPandemics - COVID-19 stellten uns ca. 30.000 Batches an GPU-Arbeit zur Verfügung (das entspricht der Menge an Arbeit, die in etwa 10 Monaten von CPUs erledigt wird), und wir ließen diese Batches laufen, bis sie vollständig verarbeitet waren.

    Der Stresstest dauerte acht Tage, vom 26. April bis zum 4. Mai 2021. Vielen Dank an alle, die an diesem wichtigen Test teilgenommen haben. Wir erwarten in Kürze einen Forumsbeitrag des technischen Teams, in dem sie zusammenfassen, was sie über die aktuellen Fähigkeiten und Grenzen von World Community Grid gelernt haben.

    Aktueller Status der Arbeitseinheiten

    CPU

    Zum Herunterladen verfügbar: 1.322 Batches
    In Bearbeitung: 6.240 Batches
    Abgeschlossen: 44.810 Batches
    5.596 Batches in den letzten 30 Tagen
    Durchschnittlich 186,5 Batches pro Tag
    Geschätzter Vorrat: 7,1 Tage*

    *Das Forschungsteam baut weitere Arbeitseinheiten auf.

    GPU

    In Bearbeitung: 2.391 Batches
    Abgeschlossen: 37.569 Batches
    35.296 Batches in den letzten 30 Tagen
    (größtenteils durch den Stresstest bedingt)
    Durchschnittlich 1.176,5 pro Tag
    (wiederum größtenteils durch den Stresstest bedingt)
    Grüße aus dem fernen Taiwan


  14. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #114

    Standard

    da sieht man mal, wie viel produktiver GPUs sein können. das ist schon ne enorme Hausnummer, 10 Monate CPU-Arbeit in 8 Tagen auf GPUs.

  15. Avatar von lugu
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.02.2016

    Beiträge
    1.110

    Danke
    Danke gesagt 34   Danke erhalten 0

    #115

    Standard



    Wisst ihr zufällig, wie groß die Android-WUs sind?
    Hauptrechner: i7-6700K @ 4.00 GHz | GeForce GTX 1080 | 16 GB DDR4 | Windows 10 | BOINC 7.14.2
    Nebenrechner: i3-7300 @ 4.00 GHz | GeForce GTX 1050 Ti | 8 GB DDR4 | Windows 10 | BOINC 7.8.3
    Nebenrechner: i3-6100 @ 3.70 GHz | Intel HD Graphics 530 | 8 GB DDR4 | Windows 10 | BOINC 7.6.33
    Statistiken | Badges

  16. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #116

    Standard

    Wie im letzten Projektupdate ankündigt ist hier die Zusammenfassung der Ergebnisse des GPU Stresstests bei OpenPandemics

    OpenPandemics GPU Stresstest

    Hintergrund

    Im März 2021 veröffentlichte das World Community Grid eine GPU Version der Forschungsanwendung Autodock. Sofort gab es eine starke Nachfrage nach Arbeit durch die Maschinen der Freiwilligen; tatsächlich war die Nachfrage deutlich höher als das Angebot an GPU Arbeitseinheiten.

    Das technische Team des World Community Grid wollte die Obergrenze der Rechenleistung für das Programm ermitteln und herausfinden, ob die aktuelle Infrastruktur die Last tragen könnte, wenn genügend GPU Arbeitseinheiten zur Verfügung gestellt würden, um die Nachfrage zu decken.

    Außerdem erforschen die OpenPandemics - COVID-19 Wissenschaftler und ihre Mitarbeiter bei Scripps Research neue vielversprechende Zielstellen auf dem Spike Protein des SARS-CoV2 Virus, die für verschiedene Liganden anfällig sein könnten, und sie wollten dieses Ziel so schnell und gründlich wie möglich untersuchen. Sie stellten dem World Community Grid ca. 30.000 Batches zur Verfügung (das entspricht der Menge an Arbeit, die von CPUs in etwa 10 Monaten erledigt wird), und wir ließen diese Batches laufen, bis sie vollständig verarbeitet waren.

    Der Stresstest dauerte 8 Tage, vom 26. April bis zum 4. Mai 2021.

    Die im Folgenden dargestellten Ergebnisse repräsentieren die aktuellen technischen Möglichkeiten des World Community Grid. Diese Informationen können aktiven und zukünftigen Projekten helfen, Entscheidungen darüber zu treffen, wie sie mit uns zusammenarbeiten wollen, wobei zu berücksichtigen ist, dass sie unterschiedliche Bedürfnisse und Ressourcen haben.

    Zusammenfassung

    Die wichtigsten Ergebnisse des Stresstests zeigten die folgenden Punkte:

    • Wir hatten zuvor festgestellt, dass die Freiwilligen, die zum World Community Grid beitragen, im Jahr 2020 eine Rechenleistung erbringen, die mit der eines Clusters aus 12.000 Rechenknoten vergleichbar ist, der das ganze Jahr über rund um die Uhr zu 100% ausgelastet ist und in dem jeder Knoten einen Intel Core i7-9700K Prozessor mit 3,60 GHz enthält, und zwar ausschließlich aus CPUs. Wir können nun weiter feststellen, dass die Freiwilligen in der Lage sind, eine zusätzliche 8-fache Rechenleistung durch GPUs bereitzustellen.

    • Die aktuelle World Community Grid Infrastruktur ist in der Lage, die durch diese Rechenleistung erzeugte Last mit dieser speziellen Mischung von Forschungsprojekten zu bewältigen. Die Infrastruktur ist jedoch an ihre Grenzen gestoßen, und jedes weitere Wachstum oder möglicherweise eine andere Mischung von Forschungsprojekten würde eine größere Infrastruktur erfordern.

    • Die OpenPandemics - GPU Arbeitseinheiten bestanden aus vielen kleinen Dateien, die eine hohe IO-Last sowohl auf den Computern der Freiwilligen als auch auf der World Community Grid Infrastruktur erzeugten. Wenn wir in der Lage wären, diese kleinen Dateien in ein paar größere Dateien zusammenzufassen, könnte dies die IO-Last sowohl auf den Computern der Freiwilligen als auch auf der World Community Grid Infrastruktur reduzieren. Diese Änderung würde es der Infrastruktur wahrscheinlich ermöglichen, eine größere Last von den Freiwilligen zu bewältigen und die Erfahrung für die Freiwilligen zu verbessern.

    • Auf der anderen Seite der Pipeline scheint das Sichern der Daten und das Senden der Ergebnisse an den Scripps Server keinen Engpass darzustellen. Allerdings wird der Betrieb von OpenPandemics mit einer höheren Geschwindigkeit dazu führen, dass das Forschungsteam den Großteil seiner Zeit und Energie auf die Vorbereitung der Eingabedatensätze und die Archivierung der zurückgesendeten Daten aufwenden muss, anstatt die Analyse der Ergebnisse durchzuführen und die interessanten Ergebnisse zum nächsten Schritt in der Pipeline weiterzuleiten. Daher wird das Projekt auf absehbare Zeit bei seiner derzeitigen Geschwindigkeit bleiben.

    • Jetzt, da wir in der Lage sind, die Fähigkeiten des World Community Grid zu quantifizieren, können Wissenschaftler diese Informationen als Faktor in ihrem Entscheidungsprozess nutzen, zusätzlich zu den Ressourcen ihrer Labore und ihren eigenen Anforderungen an die Datenanalyse.


    Identifizierte Engpässe

    Während des Tests gab es drei größere Probleme, bei denen das System instabil wurde, bis wir die Engpässe identifizieren und beheben konnten.

    Vor dem Start

    Vor dem Start des Stresstests, als wir die einzelnen Arbeitseinheiten erstellten, um sie an die Freiwilligen zu senden, haben wir die verfügbaren Inodes auf dem Dateisystem ausgeschöpft. Dadurch konnten keine neuen Dateien oder Verzeichnisse auf dem Dateisystem erstellt werden, was zu einem Ausfall unserer Backend-Prozesse führte und das Hochladen der Ergebnisse von den Rechnern der Freiwilligen verhinderte. Wir haben dieses Problem gelöst, indem wir die maximale Anzahl der erlaubten Inodes erhöht haben und dann eine Überwachung hinzugefügt haben, die uns warnt, wenn wir uns dem neuen Limit nähern.

    Start

    Kurz nach der Freigabe des großen Angebots an Arbeitseinheiten trat ein Problem auf, bei dem die Verbindungen von unserem Load Balancer zu den Backend-Servern ihre maximal konfigurierten Grenzen erreichten und neue Verbindungen blockierten. Dies scheint durch Verbindungen verursacht worden zu sein, die von Clients erstellt wurden, die Verbindungen öffneten und die Arbeit abwürgten oder sehr langsam herunterluden. Wir implementierten eine Logik im Load Balancer, um diese Verbindungen automatisch zu schließen. Sobald diese Logik implementiert war, wurden die Verbindungen vom Frontend stabil und die Arbeit konnte problemlos übertragen werden.

    Zunahme der Paketierung

    Das nächste Hindernis trat auf, als die Batches abgeschlossen wurden und die Paketierung zu einer großen Belastung für das System wurde. Es wurden mehrere Änderungen vorgenommen, um dieses Problem anzugehen:

    Der Prozess der Markierung von abgeschlossenen Batches, um die Paketierung zu starten, wurde ursprünglich nur alle 8 Stunden ausgeführt. Wir änderten dies so, dass die Batches alle 30 Minuten als vollständig markiert und verpackt wurden.

    Unser geclustertes Dateisystem hatte Konfigurationsoptionen, die suboptimal waren und verbessert werden konnten. Wir untersuchten, wie die Konfiguration verbessert werden könnte, um die Leistung zu steigern, und nahmen diese Änderungen vor.

    Nach diesen Änderungen war das System stabil, auch wenn das Paketieren und Erstellen auf hohem Niveau stattfand. Die Zeit zum Verpacken eines Batches sank von 9 Minuten auf 4,5 Minuten und die Zeit zum Erstellen eines Batches sank um einen ähnlichen Betrag. Auch Upload und Download liefen zuverlässig. Allerdings konnten wir nur während der letzten 12 Stunden des Stresstests mit dieser modifizierten Konfiguration arbeiten. Es wäre sinnvoll gewesen, mit diesen Einstellungen länger zu arbeiten und zu bestätigen, dass sie zu einem stabilen System über einen längeren Zeitraum führen.

    Mögliche zukünftige Änderungen zur weiteren Leistungssteigerung

    Abstimmung des geclusterten Dateisystems

    Die Laufwerke, die unser geclustertes Dateisystem unterstützen, erreichten nur etwa 50% ihres Nenndurchsatzes. Es ist möglich, dass die Konfiguration des Dateisystems weiter optimiert werden könnte, um die Leistung weiter zu steigern. Dies ist nicht sicher, aber wenn die Möglichkeit besteht, einen Experten mit umfassender Erfahrung in der Optimierung von hochleistungsfähigen geclusterten Dateisystemen mit IBM Spectrum Scale zu engagieren, könnte dies ein lohnender Weg sein.

    Verfügbarkeit der Webseite

    Wir haben ein Problem identifiziert, bei dem eine hohe IO-Last auf dem geclusterten Dateisystem zu Problemen mit der Benutzerfreundlichkeit und der Leistung der Webseite führt. Diese beiden Systeme sind logisch voneinander isoliert, teilen sich aber aufgrund des Systemdesigns die physische Infrastruktur. Diese Verschlechterung der Leistung der Webseite hätte nicht passieren dürfen, ist aber offensichtlich passiert. Wir wollen den Grund für dieses Problem herausfinden, aber im Moment glauben wir, dass das Problem auf die Art und Weise zurückzuführen ist, wie unser Load Balancer, HAProxy, konfiguriert ist.

    Wir haben HAProxy als eine einzige Instanz mit einem Frontend für den gesamten Datenverkehr laufen, das die Daten an mehrere Backends für die verschiedenen Arten von Datenverkehr weiterleitet. Wir könnten stattdessen HAProxy mit mehreren Instanzen auf demselben System ausführen, vorausgesetzt, es gibt separate IP-Adressen für jede Instanz, an die sie sich binden kann. Wenn wir eine separate Instanz für den Webseitenverkehr und eine zweite Instanz für den gesamten BOINC Verkehr betreiben würden, erwarten wir, dass dies eine zuverlässige Ausführung des Webseitenverkehrs ermöglichen würde, selbst wenn das BOINC System stark belastet wäre.


    Vielen Dank an alle, die an dem Stresstest teilgenommen haben.
    Grüße aus dem fernen Taiwan

  17. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #117

    Standard

    Hier die deutsche Übersetzung des Juni-Updates für OPN:

    Analyse einer noch nie dagewesenen Menge an Daten

    Im vergangenen Monat stellte das Forschungsteam dem World Community Grid etwa 30.000 Batches von GPU Arbeitseinheiten zur Verfügung. Dies war Teil eines Stresstests der World Community Grid Infrastruktur und generierte schnell eine extrem große Menge an Daten, die von den Forschern analysiert werden.

    Das World Community Grid Tech Team hat in unserem Forum (Link zur deutschen Übersetzung) über die Entdeckungen gepostet, die sie hinsichtlich der aktuellen technischen Möglichkeiten des Programms gemacht haben. Das Forschungsteam arbeitet derzeit an einem Update über das, was sie bisher aus der riesigen Datenmenge herausgefunden haben, aber in der Zwischenzeit haben sie auch über ein paar Statistiken und Projektmeilensteine getwittert.

    Vielen Dank an alle, die am Stresstest teilgenommen haben und die weiterhin Rechenleistung zum Projekt beitragen!

    Aktueller Stand der Arbeitseinheiten

    CPU

    Zum Download verfügbar: 6.063 Batches
    In Bearbeitung: 2.199 Batches
    Abgeschlossen: 51.189 Batches
    6.770 Batches in den letzten 30 Tagen
    Durchschnittlich 225,7 Batches pro Tag
    Geschätzter Vorrat: 26,9 Tage

    GPU

    Zum Herunterladen verfügbar: 16.283 Batches
    In Bearbeitung: 4.174 Batches
    Abgeschlossen: 52.292 Batches
    15.366 Batches in den letzten 30 Tagen
    Durchschnittlich 512,2 pro Tag
    Geschätzter Vorrat: 31,8 Tage
    Grüße aus dem fernen Taiwan


  18. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    766

    Danke
    Danke gesagt 10   Danke erhalten 0

    #118

    Standard

    inziwschen sind fast dauerhaft GPU-Wus verfügbar oder? zumindest hab ich fast immer Wus am laufen

  19. Avatar von Lajiola
    Titel
    SG aktiv

    Bewertung

    Registriert am
    11.10.2007

    Beiträge
    80

    Danke
    Danke gesagt 5   Danke erhalten 0

    #119

    Standard

    Zitat Zitat von Felix_M_ Beitrag anzeigen
    inziwschen sind fast dauerhaft GPU-Wus verfügbar oder? zumindest hab ich fast immer Wus am laufen
    Also ich bekomme seit Tagen leider keine..

  20. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #120

    Standard

    Ein weiteres längeres Projektupdate:

    Rund 300 Millionen kleine Moleküle laufen für OpenPandemics - COVID-19 als Teil des Systemtests

    8. Juli 2021

    Zusammenfassung

    Der kürzlich durchgeführte Stresstest im World Community Grid ermöglichte es den Forschern, schnell Simulationen für 300 Millionen kleine Moleküle durchzuführen.

    Hintergrund

    OpenPandemics - COVID-19 wurde ins Leben gerufen, um die Suche nach möglichen COVID-19 Behandlungen zu beschleunigen. Das Projekt zielt auch darauf ab, ein reaktionsschnelles, quelloffenes Toolkit aufzubauen, das allen Wissenschaftlern bei der schnellen Suche nach Behandlungen im Falle zukünftiger Pandemien helfen kann.

    Ende 2020 gaben wir die Auswahl von 70 Verbindungen (aus einer ursprünglichen Gruppe von ca. 20.000) bekannt, die vielversprechend sein könnten, um als potenzielle Inhibitoren des Virus, das COVID-19 verursacht, untersucht zu werden. Für einige dieser Verbindungen laufen derzeit Labortests (Details siehe am Ende dieses Berichts).

    Ende April und Anfang Mai haben wir dem World Community Grid etwa 30.000 Batches von GPU Arbeitseinheiten zur Verfügung gestellt. Dies war Teil eines Stresstests der World Community Grid Infrastruktur und des Analyseablaufs und generierte für uns schnell eine extrem große Datenmenge.

    Was haben wir aus dem jüngsten Stresstest gelernt?

    Der Stresstest war eine großartige Übung, um Engpässe in unserem Workflow aufzudecken. Aufgrund der fast unglaublichen Menge an zurückgemeldeten Ergebnissen - das Äquivalent von etwa 3/4 der Anzahl der CPU Ergebnisse eines Jahres in einer Woche - wurde uns klar, dass der größte Engpass das war, was wir intern "Rehydrierung/Analyse" nennen. Dies ist der Schritt, bei dem wir das sogenannte "Genom", das die Lage, die Rotation und den Torsionszustand eines gegebenen Docking Ergebnisses beschreibt, in xyz Atomkoordinaten umwandeln und die Analyse durchführen.

    Der Stresstest motivierte uns, erhebliche Optimierungen in unserem Code für die GPU Version zu entwickeln. Diese Optimierungen beschleunigten die Rehydrierung/Analyse um mehr als das Zehnfache, was zu einer Gesamtbeschleunigung unseres Workflows um den Faktor 5 führte. Diese Optimierungen sollen in unseren Mainstream Quellcode auf der AutoDock GPU GitHub Seite einfließen und der gesamten Community zur Verfügung stehen, was allen Forschern zugute kommt, die unseren Code für ihre Simulationen verwenden.

    Ziele, die derzeit auf dem World Community Grid laufen

    Derzeit konzentrieren sich alle Berechnungen auf das Spike Protein des SARS-CoV2 Virus. Die ersten Arbeitseinheiten, die auf den Spike abzielten, waren der "Stresstest", bei dem etwa 300 Millionen kleine Moleküle an eine von vielen möglichen Bindungsstellen angedockt wurden. Anschließend haben wir mehrere mögliche Bindungstaschen mit sowohl reaktiven als auch nicht reaktiven Molekülen ins Visier genommen.

    Die reaktiven Moleküle enthalten eine chemische Gruppe, die in der Lage ist, selektiv entweder mit Tyrosin- oder Lysin-Aminosäuren (die häufige Bausteine von Proteinen sind) zu reagieren, und zwar unter Verwendung einer bestimmten Art von Schwefelchemie (Sulfonylfluorid-Austausch, SuFEx). Wenn eines dieser Moleküle tatsächlich an das Spike Protein bindet, könnte es den Eintritt des Virus in menschliche Zellen behindern und damit die Replikation des Virus verlangsamen.

    Laufende Tests von Verbindungen

    In unserer Analyse haben wir die rohen Docking Ergebnisse gefiltert, um die vielversprechendsten Verbindungen zu identifizieren, die synthetisiert und in biologischen Assays getestet werden sollen. Während dieses Prozesses wurde die Anzahl der Ergebnisse von Hunderten von Millionen von Molekülen auf einige Dutzend reduziert, welche die interessantesten Interaktionsmuster mit den viralen Enzymen zeigten.

    Mit unseren Partnern bei Enamine identifizierten wir diejenigen, die durch synthetische Chemie besser zugänglich waren, und wählten schließlich Moleküle aus, die gegen zwei der wichtigsten Proteasen des SARS-CoV2 Virus gerichtet sein könnten: 28 für die Protease Plpro und 47 für die Protease Mpro. Enamine hat die Moleküle rasch synthetisiert, gereinigt und an die Labors unserer experimentellen Partner in Scripps Florida (Griffin und Kojetin Labors) und an der Emory University (Sarafianos Labor) versandt. Sobald die biologischen Ergebnisse vorliegen, werden wir sie mit der Community teilen.

    Vielen Dank an alle, die dieses Projekt unterstützen!
    Grüße aus dem fernen Taiwan

  21. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #121

    Standard

    Hier die deutsche Übersetzung des Juli-Updates für OPN:

    Neues von den Forschern zum Projekt

    Das Forschungsteam hat uns Anfang des Monats ein offizielles Update (deutsche Übersetzung) gegeben. Zu den Highlights des Updates gehören:

    • Was sie während des Stresstests (engl.) im Frühjahr dieses Jahres über ihre eigenen Arbeitsabläufe und Werkzeuge gelernt haben und wie dies der aktuellen und zukünftigen Forschung helfen könnte
    • Weitere Informationen darüber, was genau sie mit Hilfe der gespendeten Rechenleistung analysieren
    • Details über die laufenden Labortests von Substanzen, die als mögliche Behandlungsmethoden für COVID-19 in Frage kommen

    Seit der Veröffentlichung des Updates haben die Forscher auch damit begonnen, eine zweite Gruppe von Substanzen zu testen. Sie werden weitere Einzelheiten bekannt geben, wenn dies geschieht.

    Aktueller Stand der Arbeitseinheiten

    CPU

    Zum Herunterladen verfügbar: 3.601 Batches
    In Bearbeitung: 2.245 Batches
    Abgeschlossen: 53.615 Batches
    2.950 Batches in den letzten 30 Tagen
    Durchschnittlich 98,0 Batches pro Tag
    Geschätzter Vorrat: 36,6 Tage

    GPU

    Zum Herunterladen verfügbar: 6.338 Batches
    In Bearbeitung: 5.441 Batches
    Abgeschlossen: 60.876 Batches
    9.520 Batches in den letzten 30 Tagen
    Durchschnittlich 317,0 pro Tag
    Geschätzter Vorrat: 20,0 Tage
    Grüße aus dem fernen Taiwan

  22. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.338

    Danke
    Danke gesagt 4   Danke erhalten 66

    #122

    Standard

    Hier die deutsche Übersetzung des August-Updates für OPN

    (erst am 31.8. zu amerikanischer Abendzeit gepostet, da war es in Taiwan schon längst September...)

    Priorisierung der Arbeit im World Community Grid an vier Bindungsstellen

    Das Forschungsteam hat kürzlich 600 Batches mit priorisierten Arbeiten an das World Community Grid geschickt. Diese Batches enthielten simulierte Experimente zu mehreren wichtigen Bindungsstellen und zusätzlichen Verbindungen, die als potenzielle Behandlungen vielversprechend sein könnten.

    Sulfonylfluorid (SuFEx) ist ein Molekül, von dem bekannt ist, dass es mit Lysin- (K) und Tyrosin- (Y) Aminosäureseitenketten in Proteinen reagiert und kovalent bindet.

    Die Forscher wählten vier mögliche Bindungsstellen in der Hauptprotease (Mpro) von SARS-CoV-2 aus, die den K- und Y-Seitenketten benachbart sind. Anschließend bereiteten sie etwa 600 Pakete vor, die an fast 300.000 Moleküle von Enamine, die SuFEx enthalten, angedockt werden sollten. Diese Batches wurden kürzlich im World Community Grid abgeschlossen.

    Die vielversprechendsten Moleküle werden gekauft oder synthetisiert und dann an das Labor von Prof. Chris Schofield am Chemistry Research Laboratory der Universität Oxford geschickt, um experimentell zu überprüfen, ob sie an SARS-CoV-2 Mpro binden.

    Aktueller Stand der Arbeitseinheiten


    CPU

    Zum Herunterladen verfügbar: 2.110 Batches
    28-Tage-Durchschnitt von 94,0 Batches pro Tag
    Geschätzter Vorrat: 21,5 Tage

    GPU

    Zum Herunterladen verfügbar: 3.357 Batches
    28-Tage-Durchschnitt von 398 Batches pro Tag
    Geschätzter Vorrat: 8,8 Tage
    Grüße aus dem fernen Taiwan

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO