Seite 5 von 5 Erste ... 3 4 5
Ergebnis 101 bis 121 von 121

  1. Titel
    Neuling

    Bewertung

    Registriert am
    21.06.2018

    Ort
    Rheine

    Beiträge
    17

    Danke
    Danke gesagt 0   Danke erhalten 0

    #101

    Standard

    jup bei mir ist auch seit 3 Tagen Ruhe.

  2. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.266

    Danke
    Danke gesagt 14   Danke erhalten 75

    #102

    Standard

    Zitat Zitat von fufu Beitrag anzeigen
    Glaube nicht dass sie User ausschließen wollen die keine passende GPU haben.
    Ich würde eher sagen "sie verzichten auf einen kleinen Teil der verfügbaren Rechenleistung, auf dass sie anderen Projekten wie MCM zugute kommt. Allerdings wird es dann immer Leute geben, die sagen "ich will aber (momentan) nur dieses Projekt rechnen, und jedes bisschen hilft!" Das mag man sinnvoll finden oder nicht, ein nachvollziehbarer Standpunkt ist es aber schon. Daher: vermutlich ist es besser, es einfach weiter laufen zu lassen und niemanden zu verprellen.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  3. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #103

    Standard

    inzwischen sind zumindest bei mir fast immer GPU Wus verfügbar. Demnach haben sie die produzierte Menge scheinbar hochgefahren.

  4. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.266

    Danke
    Danke gesagt 14   Danke erhalten 75

    #104

    Standard

    Oh, ich dachte es wären wieder so gut wie keine verfügbar. Hab mal nachgeschaut: mein BOINC fragt WCG nur noch nach CPU-Arbeit. WTF? Außerdem hat es vermutlich seit dem "Stress Test" einen noch viel größeren Puffer an WCG Arbeit angelegt: schätzungsweise 1-2 Tage bei einer Einstellung von 0,05 Tagen. Hab das Gefühl, der hohe RAC nach den paar Tagen mit GPU-WUs bringt den scheduler durcheinander. wobei dieser viel zu große Arbeitspuffer auch nicht weniger wird, obwohl mein RAC jetzt wieder sinkt.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  5. Titel
    Junior Member

    Bewertung

    Registriert am
    17.06.2012

    Beiträge
    83

    Danke
    Danke gesagt 4   Danke erhalten 0

    #105

    Standard

    Zitat Zitat von Felix_M_ Beitrag anzeigen
    inzwischen sind zumindest bei mir fast immer GPU Wus verfügbar. Demnach haben sie die produzierte Menge scheinbar hochgefahren.
    Das kann ich nicht bestätigen meine GPU ist meist leer obwohl ich alle 2,5 Minuten anfrage ist eigentlich genauso ausgelastet wie immer zwischen 50 und 100 Tasks pro Tag
    Auch im Forum steht nichts von einer Erhöhung.
    Ich gehe also davon aus dass es weiterhin die 2.000 alle 30 Minuten sind.


  6. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #106

    Standard

    bei mir laufen jetzt fast dauerhaft opng wus, ich bekomm die immer in 10er Schlägen. Wenn sich einer dem Ende neigt, ist normalerweise der nächste da .


  7. Titel
    Neuling

    Bewertung

    Registriert am
    21.06.2018

    Ort
    Rheine

    Beiträge
    17

    Danke
    Danke gesagt 0   Danke erhalten 0

    #107

    Standard

    Heute kamen ganze 2 Wu´s an.
    Gestern waren es gute 77.
    Mal abwarten


  8. Titel
    Junior Member

    Bewertung

    Registriert am
    17.06.2012

    Beiträge
    83

    Danke
    Danke gesagt 4   Danke erhalten 0

    #108

    Standard

    Zitat Zitat von Felix_M_ Beitrag anzeigen
    bei mir laufen jetzt fast dauerhaft opng wus, ich bekomm die immer in 10er Schlägen. Wenn sich einer dem Ende neigt, ist normalerweise der nächste da .
    Mh..mit was rechnest du?
    Zumindest in den öffentlichen Statistiken sehe ich niemanden der wirklich extrem viele Punkte macht bei Seti-Germany.
    Ich bräuchte alle 2-5 Minuten 16 neue GPU-WUs um die Grafikkarte richtig auszulasen :/


  9. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #109

    Standard

    Zitat Zitat von Stiwi Beitrag anzeigen
    Mh..mit was rechnest du?
    Zumindest in den öffentlichen Statistiken sehe ich niemanden der wirklich extrem viele Punkte macht bei Seti-Germany.
    Ich bräuchte alle 2-5 Minuten 16 neue GPU-WUs um die Grafikkarte richtig auszulasen :/
    hab leider nur ne GTX960, und die läuft auch nicht den ganzen Tag, nur wenn ich daheim und sowieso am PC bin. Quasi nach ursprünglichem BOINC-Gedanken.
    Meinen Stats nach waren es gestern knapp 38k BOINC-Credit.


  10. Titel
    Junior Member

    Bewertung

    Registriert am
    17.06.2012

    Beiträge
    83

    Danke
    Danke gesagt 4   Danke erhalten 0

    #110

    Standard

    Ok dann hast du scheinbar deutlich mehr Glück als ich bei den GPU-WUs


  11. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #111

    Standard

    laut boinctasks habe ich heute bis jetzt 75 Wus bekommen. und das seit ca halb 10

  12. Avatar von Urs
    Titel
    Gold Member

    Bewertung

    Registriert am
    05.02.2017

    Ort
    NRW

    Beiträge
    1.345

    Danke
    Danke gesagt 18   Danke erhalten 28

    #112

    Standard

    Mein Schrabbelrechner (i5 3570s) ohne Graka braucht pro OPNG wu ca. 1,5-2,1 Stunden. 500-800 Punkte.
    Mal so als Info.

  13. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.266

    Danke
    Danke gesagt 14   Danke erhalten 75

    #113

    Standard

    Ryzen 9 5900X @ 4.05 GHz: 1:22 h für 2 OPN WUs pro Kern (also mit SMT). Insgesamt ca. 30k RAC mit 11 Kernen für WCG (alle Projekte).

    MrS

    - - - Aktualisiert - - -

    Zitat Zitat von [ETA]MrSpadge Beitrag anzeigen
    Hab mal nachgeschaut: mein BOINC fragt WCG nur noch nach CPU-Arbeit. WTF? Außerdem hat es vermutlich seit dem "Stress Test" einen noch viel größeren Puffer an WCG Arbeit angelegt: schätzungsweise 1-2 Tage bei einer Einstellung von 0,05 Tagen.
    Ich hab des Rätsels Lösung:

    1. Die OPNG WUs werden basierend auf den Angaben in den WUs auf eine zu lange Laufzeit eingeschätzt. Die reale Laufzeit liegt deutlich darunter. Mit der Zeit passt BOINC dann den "result duration correction factor" entsprechend an. Das passiert pro Projekt, also für ganz WCG. Für die CPU WUs sehe ich zwar keine erhöhten Laufzeit-Schätzungen, aber das würde zum,indest erklären, warum sich mein BOINC seit dem "Stresstest" so dermaßen mit WCG CPU WUs vollsaugt.

    2. Ich hatte zwischendurch den Puffer auf 0,02 Tage und zusätzlich 0 Tage eingestellt. Damit hatte ich nur noch CPU WUs für ca. 1 Tag bekommen. Aber: immer wenn eine Einstein-GPU-WU fertig war (-> GPU Puffer weniger als 0,02 Tage), hat er sich eine neue gezogen (-> GPU Puffer mehr als 0,02 Tage). Damit war der GPU-Puffer wieder gefüllt und BOINC hat nicht nach mehr WCG GPU-Arbeit gefragt, obwohl der ressource share für WCG um mehrere Größenordnungen höher ist.
    Hab jetzt 0,02 + 0,03 Tage eingestellt und wieder OPN GPU WUs bekommen

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  14. Titel
    Full Member

    Bewertung

    Registriert am
    31.03.2020

    Beiträge
    176

    Danke
    Danke gesagt 0   Danke erhalten 0

    #114

    Standard

    Gibt es noch GPU WU ?
    Nach dem Pentathlon wollt ich wieder bei der GPU einsteigen.
    Intel Core i7-9700K, GTX 1660 Super, 32GB DDR4 - Raspberry Pi 4 - boincstats - Join World Community Grid

  15. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.266

    Danke
    Danke gesagt 4   Danke erhalten 66

    #115

    Standard

    Zitat Zitat von DerLetzteGermane Beitrag anzeigen
    Gibt es noch GPU WU ?
    Ja, gibt es.

    Immer mal so, mal so.
    Grüße aus dem fernen Taiwan

  16. Avatar von [ETA]MrSpadge
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    22.07.2007

    Ort
    Aachen

    Beiträge
    3.266

    Danke
    Danke gesagt 14   Danke erhalten 75

    #116

    Standard

    Ich seh nur an den "points generated" in der "contribution history" im WCG Profil, dass da immer mal welche dabei sein müssen.

    MrS
    ExtraTerrestrial Apes - Scanning for our furry friends since Jan 2002


  17. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #117

    Standard

    ich hab immernoch eigentlich dauerhaft GPU-Arbeit

  18. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.266

    Danke
    Danke gesagt 4   Danke erhalten 66

    #118

    Standard

    Hier die deutsche Übersetzung des Mai-Updates für OPN:

    GPU-Arbeitseinheiten

    Wir haben kürzlich den Betatest abgeschlossen und GPU-Arbeitseinheiten für dieses Projekt freigegeben. Derzeit sendet das Projekt alle 30 Minuten 1.700 neue Arbeitseinheiten aus. Wir gehen davon aus, dass wir in absehbarer Zukunft GPU-Arbeitseinheiten in diesem Tempo versenden werden.

    Wir werden weiterhin regelmäßige Arbeitseinheiten erstellen und veröffentlichen, die CPU-Leistung verwenden. Dies wird dazu beitragen, dass die Arbeit in einem guten Tempo weiterläuft, und wird sicherstellen, dass jeder teilnehmen kann, der Rechenleistung beisteuern möchte.

    Stresstest der technischen Infrastruktur des World Community Grid

    Anfang des Monats wollte das technische Team des World Community Grid die Obergrenze der Rechenleistung für das Programm bestimmen und herausfinden, ob die aktuelle Infrastruktur die Last tragen kann, wenn wir genügend GPU-Arbeit zur Verfügung stellen, um die Nachfrage zu decken.

    Die Wissenschaftler für OpenPandemics - COVID-19 stellten uns ca. 30.000 Batches an GPU-Arbeit zur Verfügung (das entspricht der Menge an Arbeit, die in etwa 10 Monaten von CPUs erledigt wird), und wir ließen diese Batches laufen, bis sie vollständig verarbeitet waren.

    Der Stresstest dauerte acht Tage, vom 26. April bis zum 4. Mai 2021. Vielen Dank an alle, die an diesem wichtigen Test teilgenommen haben. Wir erwarten in Kürze einen Forumsbeitrag des technischen Teams, in dem sie zusammenfassen, was sie über die aktuellen Fähigkeiten und Grenzen von World Community Grid gelernt haben.

    Aktueller Status der Arbeitseinheiten

    CPU

    Zum Herunterladen verfügbar: 1.322 Batches
    In Bearbeitung: 6.240 Batches
    Abgeschlossen: 44.810 Batches
    5.596 Batches in den letzten 30 Tagen
    Durchschnittlich 186,5 Batches pro Tag
    Geschätzter Vorrat: 7,1 Tage*

    *Das Forschungsteam baut weitere Arbeitseinheiten auf.

    GPU

    In Bearbeitung: 2.391 Batches
    Abgeschlossen: 37.569 Batches
    35.296 Batches in den letzten 30 Tagen
    (größtenteils durch den Stresstest bedingt)
    Durchschnittlich 1.176,5 pro Tag
    (wiederum größtenteils durch den Stresstest bedingt)
    Grüße aus dem fernen Taiwan


  19. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    11.06.2017

    Ort
    Bei Backnang

    Beiträge
    732

    Danke
    Danke gesagt 10   Danke erhalten 0

    #119

    Standard

    da sieht man mal, wie viel produktiver GPUs sein können. das ist schon ne enorme Hausnummer, 10 Monate CPU-Arbeit in 8 Tagen auf GPUs.

  20. Avatar von lugu
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.02.2016

    Beiträge
    1.088

    Danke
    Danke gesagt 33   Danke erhalten 0

    #120

    Standard



    Wisst ihr zufällig, wie groß die Android-WUs sind?
    Hauptrechner: i7-6700K @ 4.00 GHz | GeForce GTX 1080 | 16 GB DDR4 | Windows 10 | BOINC 7.14.2
    Nebenrechner: i3-7300 @ 4.00 GHz | GeForce GTX 1050 Ti | 8 GB DDR4 | Windows 10 | BOINC 7.8.3
    Nebenrechner: i3-6100 @ 3.70 GHz | Intel HD Graphics 530 | 8 GB DDR4 | Windows 10 | BOINC 7.6.33
    Statistiken | Badges

  21. Avatar von Dennis-TW
    Titel
    Gold Member

    Bewertung

    Registriert am
    25.01.2008

    Ort
    Taiwan

    Beiträge
    1.266

    Danke
    Danke gesagt 4   Danke erhalten 66

    #121

    Standard

    Wie im letzten Projektupdate ankündigt ist hier die Zusammenfassung der Ergebnisse des GPU Stresstests bei OpenPandemics

    OpenPandemics GPU Stresstest

    Hintergrund

    Im März 2021 veröffentlichte das World Community Grid eine GPU Version der Forschungsanwendung Autodock. Sofort gab es eine starke Nachfrage nach Arbeit durch die Maschinen der Freiwilligen; tatsächlich war die Nachfrage deutlich höher als das Angebot an GPU Arbeitseinheiten.

    Das technische Team des World Community Grid wollte die Obergrenze der Rechenleistung für das Programm ermitteln und herausfinden, ob die aktuelle Infrastruktur die Last tragen könnte, wenn genügend GPU Arbeitseinheiten zur Verfügung gestellt würden, um die Nachfrage zu decken.

    Außerdem erforschen die OpenPandemics - COVID-19 Wissenschaftler und ihre Mitarbeiter bei Scripps Research neue vielversprechende Zielstellen auf dem Spike Protein des SARS-CoV2 Virus, die für verschiedene Liganden anfällig sein könnten, und sie wollten dieses Ziel so schnell und gründlich wie möglich untersuchen. Sie stellten dem World Community Grid ca. 30.000 Batches zur Verfügung (das entspricht der Menge an Arbeit, die von CPUs in etwa 10 Monaten erledigt wird), und wir ließen diese Batches laufen, bis sie vollständig verarbeitet waren.

    Der Stresstest dauerte 8 Tage, vom 26. April bis zum 4. Mai 2021.

    Die im Folgenden dargestellten Ergebnisse repräsentieren die aktuellen technischen Möglichkeiten des World Community Grid. Diese Informationen können aktiven und zukünftigen Projekten helfen, Entscheidungen darüber zu treffen, wie sie mit uns zusammenarbeiten wollen, wobei zu berücksichtigen ist, dass sie unterschiedliche Bedürfnisse und Ressourcen haben.

    Zusammenfassung

    Die wichtigsten Ergebnisse des Stresstests zeigten die folgenden Punkte:

    • Wir hatten zuvor festgestellt, dass die Freiwilligen, die zum World Community Grid beitragen, im Jahr 2020 eine Rechenleistung erbringen, die mit der eines Clusters aus 12.000 Rechenknoten vergleichbar ist, der das ganze Jahr über rund um die Uhr zu 100% ausgelastet ist und in dem jeder Knoten einen Intel Core i7-9700K Prozessor mit 3,60 GHz enthält, und zwar ausschließlich aus CPUs. Wir können nun weiter feststellen, dass die Freiwilligen in der Lage sind, eine zusätzliche 8-fache Rechenleistung durch GPUs bereitzustellen.

    • Die aktuelle World Community Grid Infrastruktur ist in der Lage, die durch diese Rechenleistung erzeugte Last mit dieser speziellen Mischung von Forschungsprojekten zu bewältigen. Die Infrastruktur ist jedoch an ihre Grenzen gestoßen, und jedes weitere Wachstum oder möglicherweise eine andere Mischung von Forschungsprojekten würde eine größere Infrastruktur erfordern.

    • Die OpenPandemics - GPU Arbeitseinheiten bestanden aus vielen kleinen Dateien, die eine hohe IO-Last sowohl auf den Computern der Freiwilligen als auch auf der World Community Grid Infrastruktur erzeugten. Wenn wir in der Lage wären, diese kleinen Dateien in ein paar größere Dateien zusammenzufassen, könnte dies die IO-Last sowohl auf den Computern der Freiwilligen als auch auf der World Community Grid Infrastruktur reduzieren. Diese Änderung würde es der Infrastruktur wahrscheinlich ermöglichen, eine größere Last von den Freiwilligen zu bewältigen und die Erfahrung für die Freiwilligen zu verbessern.

    • Auf der anderen Seite der Pipeline scheint das Sichern der Daten und das Senden der Ergebnisse an den Scripps Server keinen Engpass darzustellen. Allerdings wird der Betrieb von OpenPandemics mit einer höheren Geschwindigkeit dazu führen, dass das Forschungsteam den Großteil seiner Zeit und Energie auf die Vorbereitung der Eingabedatensätze und die Archivierung der zurückgesendeten Daten aufwenden muss, anstatt die Analyse der Ergebnisse durchzuführen und die interessanten Ergebnisse zum nächsten Schritt in der Pipeline weiterzuleiten. Daher wird das Projekt auf absehbare Zeit bei seiner derzeitigen Geschwindigkeit bleiben.

    • Jetzt, da wir in der Lage sind, die Fähigkeiten des World Community Grid zu quantifizieren, können Wissenschaftler diese Informationen als Faktor in ihrem Entscheidungsprozess nutzen, zusätzlich zu den Ressourcen ihrer Labore und ihren eigenen Anforderungen an die Datenanalyse.


    Identifizierte Engpässe

    Während des Tests gab es drei größere Probleme, bei denen das System instabil wurde, bis wir die Engpässe identifizieren und beheben konnten.

    Vor dem Start

    Vor dem Start des Stresstests, als wir die einzelnen Arbeitseinheiten erstellten, um sie an die Freiwilligen zu senden, haben wir die verfügbaren Inodes auf dem Dateisystem ausgeschöpft. Dadurch konnten keine neuen Dateien oder Verzeichnisse auf dem Dateisystem erstellt werden, was zu einem Ausfall unserer Backend-Prozesse führte und das Hochladen der Ergebnisse von den Rechnern der Freiwilligen verhinderte. Wir haben dieses Problem gelöst, indem wir die maximale Anzahl der erlaubten Inodes erhöht haben und dann eine Überwachung hinzugefügt haben, die uns warnt, wenn wir uns dem neuen Limit nähern.

    Start

    Kurz nach der Freigabe des großen Angebots an Arbeitseinheiten trat ein Problem auf, bei dem die Verbindungen von unserem Load Balancer zu den Backend-Servern ihre maximal konfigurierten Grenzen erreichten und neue Verbindungen blockierten. Dies scheint durch Verbindungen verursacht worden zu sein, die von Clients erstellt wurden, die Verbindungen öffneten und die Arbeit abwürgten oder sehr langsam herunterluden. Wir implementierten eine Logik im Load Balancer, um diese Verbindungen automatisch zu schließen. Sobald diese Logik implementiert war, wurden die Verbindungen vom Frontend stabil und die Arbeit konnte problemlos übertragen werden.

    Zunahme der Paketierung

    Das nächste Hindernis trat auf, als die Batches abgeschlossen wurden und die Paketierung zu einer großen Belastung für das System wurde. Es wurden mehrere Änderungen vorgenommen, um dieses Problem anzugehen:

    Der Prozess der Markierung von abgeschlossenen Batches, um die Paketierung zu starten, wurde ursprünglich nur alle 8 Stunden ausgeführt. Wir änderten dies so, dass die Batches alle 30 Minuten als vollständig markiert und verpackt wurden.

    Unser geclustertes Dateisystem hatte Konfigurationsoptionen, die suboptimal waren und verbessert werden konnten. Wir untersuchten, wie die Konfiguration verbessert werden könnte, um die Leistung zu steigern, und nahmen diese Änderungen vor.

    Nach diesen Änderungen war das System stabil, auch wenn das Paketieren und Erstellen auf hohem Niveau stattfand. Die Zeit zum Verpacken eines Batches sank von 9 Minuten auf 4,5 Minuten und die Zeit zum Erstellen eines Batches sank um einen ähnlichen Betrag. Auch Upload und Download liefen zuverlässig. Allerdings konnten wir nur während der letzten 12 Stunden des Stresstests mit dieser modifizierten Konfiguration arbeiten. Es wäre sinnvoll gewesen, mit diesen Einstellungen länger zu arbeiten und zu bestätigen, dass sie zu einem stabilen System über einen längeren Zeitraum führen.

    Mögliche zukünftige Änderungen zur weiteren Leistungssteigerung

    Abstimmung des geclusterten Dateisystems

    Die Laufwerke, die unser geclustertes Dateisystem unterstützen, erreichten nur etwa 50% ihres Nenndurchsatzes. Es ist möglich, dass die Konfiguration des Dateisystems weiter optimiert werden könnte, um die Leistung weiter zu steigern. Dies ist nicht sicher, aber wenn die Möglichkeit besteht, einen Experten mit umfassender Erfahrung in der Optimierung von hochleistungsfähigen geclusterten Dateisystemen mit IBM Spectrum Scale zu engagieren, könnte dies ein lohnender Weg sein.

    Verfügbarkeit der Webseite

    Wir haben ein Problem identifiziert, bei dem eine hohe IO-Last auf dem geclusterten Dateisystem zu Problemen mit der Benutzerfreundlichkeit und der Leistung der Webseite führt. Diese beiden Systeme sind logisch voneinander isoliert, teilen sich aber aufgrund des Systemdesigns die physische Infrastruktur. Diese Verschlechterung der Leistung der Webseite hätte nicht passieren dürfen, ist aber offensichtlich passiert. Wir wollen den Grund für dieses Problem herausfinden, aber im Moment glauben wir, dass das Problem auf die Art und Weise zurückzuführen ist, wie unser Load Balancer, HAProxy, konfiguriert ist.

    Wir haben HAProxy als eine einzige Instanz mit einem Frontend für den gesamten Datenverkehr laufen, das die Daten an mehrere Backends für die verschiedenen Arten von Datenverkehr weiterleitet. Wir könnten stattdessen HAProxy mit mehreren Instanzen auf demselben System ausführen, vorausgesetzt, es gibt separate IP-Adressen für jede Instanz, an die sie sich binden kann. Wenn wir eine separate Instanz für den Webseitenverkehr und eine zweite Instanz für den gesamten BOINC Verkehr betreiben würden, erwarten wir, dass dies eine zuverlässige Ausführung des Webseitenverkehrs ermöglichen würde, selbst wenn das BOINC System stark belastet wäre.


    Vielen Dank an alle, die an dem Stresstest teilgenommen haben.
    Grüße aus dem fernen Taiwan

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO