Seite 1 von 4 1 2 3 ... Letzte
Ergebnis 1 bis 25 von 78

Thema: ATLAS@home

  1. Avatar von shka
    Titel
    Administrator

    Bewertung

    Registriert am
    16.01.2011

    Ort
    Leipzig

    Beiträge
    2.795

    Danke
    Danke gesagt 69   Danke erhalten 66

    #1

    Standard ATLAS@home

    Projekt "Atlas@home"

    Habe heute vom Projekt folgende News erhalten:
    Thanks for your valuable support to the ATLAS@home project. The ATLAS@home project officially moves its server from IHEP to CERN, thus the current server( http://gilda117.ihep.ac.cn ) is fully replaced by a new server at CERN ( http://atlasathome.cern.ch ). If you would like to continue to support ATLAS@home, please connect to the new URL http://atlasathome.cern.ch !

    Again your contribution to the project is highly appreciated!

    ATLAS@home Project

    To opt out of future emails from REPLACE WITH PROJECT NAME, please edit your project preferences at http://gilda117.ihep.ac.cn/ATLAS/pre...subset=project
    Das Projekt ist umgezogen unter das Dach des CERN und unter neuer HP http://atlasathome.cern.ch erreichbar.

    Zumindest bei mir wurde das Account nicht mit rübergezogen (hatte aber keine Credits, da ich bisher nur Fehler produziert habe ).

  2. #2

    Standard

    Bei ATLAS wurden heute auch die Credits des alten Projekts auf das neue übertragen (zumindest bei mir).

  3. Avatar von bossmaniac
    Titel
    Senior Member

    Bewertung

    Registriert am
    16.06.2012

    Beiträge
    449

    Danke
    Danke gesagt 0   Danke erhalten 3

    #3

    Standard

    Zitat Zitat von shka Beitrag anzeigen
    Projekt "Atlas@home"

    Habe heute vom Projekt folgende News erhalten:


    Das Projekt ist umgezogen unter das Dach des CERN und unter neuer HP http://atlasathome.cern.ch erreichbar.

    Zumindest bei mir wurde das Account nicht mit rübergezogen (hatte aber keine Credits, da ich bisher nur Fehler produziert habe ).
    In wie weit unterscheidet sich das Projekt von lhc@home?
    To bodly crunch what no man has crunched before...
    http://stats.free-dc.org/cpidtagb.ph...heme=14&cols=3

  4. Avatar von Hoshione
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    11.08.2008

    Ort
    Nicht in Neverland - am Niederrhein

    Beiträge
    3.426

    Danke
    Danke gesagt 234   Danke erhalten 78

    #4

    Standard

    Ich habe sechs Atlas Wu´s am laufen.......und laufen.......und laufen....mittlerweile zwischen 25 und 98 Stunden. Alle zwischen 99,191 % und 100 %.....und sie laufen und laufen.......ich weiss nicht ob da was wrong ist ? Die mit 100 % zeigen dies mittlerweile seit über 24 Stunden
    Home is where the heart lies, but if the heart lies
    Where is home, is where the heart lies, but where is home?
    Marillion - Charting the Single - 1983

  5. Avatar von JayPi
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    08.07.2007

    Ort
    Kölle am Rhing

    Beiträge
    3.213

    Danke
    Danke gesagt 20   Danke erhalten 5

    #5

    Standard

    Zitat Zitat von Hoshione Beitrag anzeigen
    Ich habe sechs Atlas Wu´s am laufen.......und laufen.......und laufen....mittlerweile zwischen 25 und 98 Stunden. Alle zwischen 99,191 % und 100 %.....und sie laufen und laufen.......ich weiss nicht ob da was wrong ist ? Die mit 100 % zeigen dies mittlerweile seit über 24 Stunden
    Bei mir waren die WUs normalerweise in ca.2-3 Stunden durch. Die Creditausbeute ist seit ein paar Tagen mit 8-15 Credits je WU so gering, dass ich erstmal von diesem Projekt Abstand halte.
    Was die WUs ausbremst sind die vielen Snapshots der VMs, die die Platte ständig rattern lassen. Vielleicht bremsen die bei Dir alles aus?

  6. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Granada

    Beiträge
    17.179

    Danke
    Danke gesagt 163   Danke erhalten 1.826

    #6

    Standard

    Das Projekt hat nun seinen eigenen Thread bekommen, bevor der Neue-Projekte-Thread zu sehr off-Topic wird.

    Zitat Zitat von bossmaniac Beitrag anzeigen
    In wie weit unterscheidet sich das Projekt von lhc@home?
    LHC@home arbeitet an der Optimierung des LHC an sich, ATLAS@home simuliert, wie Erzeugung und Zerfall hypothetischer Teilchen aussehen könnten.
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  7. Avatar von Hoshione
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    11.08.2008

    Ort
    Nicht in Neverland - am Niederrhein

    Beiträge
    3.426

    Danke
    Danke gesagt 234   Danke erhalten 78

    #7

    Standard

    Hallo zusammen, ich begreifs langsam nicht mehr.....zuerst haut mir das Projekt alle sechs WU´s die allesamt über 100 Stunden hatten total ins Nirvana, jetzt mittlerweile wieder eine WU über 100 und die anderen zwischen 24 und 40 Stunden Laufzeit allesamt bei 100 %.......ist ja OK wenn ein Projekt umgestellt wird und einiges nicht mehr funzt....aber so verliere ich langsam die Lust wenn ich meine Rechenzeit jedesmal ins blaue blase.....
    Home is where the heart lies, but if the heart lies
    Where is home, is where the heart lies, but where is home?
    Marillion - Charting the Single - 1983

  8. Avatar von JayPi
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    08.07.2007

    Ort
    Kölle am Rhing

    Beiträge
    3.213

    Danke
    Danke gesagt 20   Danke erhalten 5

    #8

    Standard

    Mir gefällt das Projekt Atlas@Home auch nicht mehr so richtig. Die WUs der letzten Tagen liefen zwar einwandfrei in 1-2 Stunden durch, aber der Ertrag ist extrem gering für den Aufwand.

    Früher wurden die WUs scheinbar nach der Bruttozeit berechnet, da habe ich schnell rund 75K Credits zusammenbekommen, jetzt wird die Netto CPU-Zeit genommen und die Credits tröpfeln nur noch. Da das Projekt extrem Netzwerkintensiv ist - je WU 70 MB und manchmal WUs mit 1,2 GB - wird das DSL schon kräftig belastet, aber auch während der Laufzeit entsteht ein beachtlicher Traffic. Mein 6 Mbit DSL ist dabei ständig am Limit. Bekomme ich den Download einer 1,2 GB WU mit breche ich diese ab und es wird dann eine 70 MB WU geladen.

    Weiterhin entsteht durch die häufigen Snapshots in der VM eine hohe Last auf den Festplatten wenn viele WUs gleichzeitig laufen, eine Platte ist durch die Dauerbelastung bereits hinüber. Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.

    Mein Ziel 100K zu erreichen wird immer schwieriger, 9000 fehlen noch.

  9. Avatar von Yeti
    Titel
    Neuling

    Bewertung

    Registriert am
    17.02.2010

    Beiträge
    19

    Danke
    Danke gesagt 0   Danke erhalten 1

    #9

    Lächeln

    Hallo Cruncher von Seti-Germany,

    Atlas benötigt Eure Hilfe, man hat aktuell einen Haufen WUs und braucht diese möglichst schnell abgearbeitet.

    Die WUs haben inzwischen den nachträglichen Download deutlich verringert, ein deutlicher Teil der benötigten Daten wird inzwischen direkt mit dem WU-Download mitgeliefert.

    Und wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt, werden auch nicht mehr so viele Snapshots erzeugt.

    Ach ja, als Team seit Ihr gerade auf Platz 25, die kleinen Nordlichter auf Platz 2 ? Wollt Ihr das so stehen lassen ?

    Hier das Original-Post:

    Request for more crunching in next week or two
    The current set of ATLAS@Home work units are quite important to the experiment and would like to get them finished as quickly as possible. Therefore if you have more CPU to donate to ATLAS@Home over the next couple of weeks to crunch through these WU it would be very much appreciated! There are currently around 7000 WU left to crunch in this set and we will provide regular updates of how many are left to go.

    Many of the server-side scalability issues have been addressed and we are confident that we can handle more concurrent WU at this time. However the vboxwrapper is still having issues in some cases, so if you notice that you have WUs that are stalled or WUs that consume very small amount of cpu for more than 30 minutes, please abort them since they will most likely not succeed. The expected cputime usage of the WUs varies from 6 to 36 hour, so please ignore the WU progress as reported by the client.

    Thank you in advance for your help! 15 Nov 2014, 14:38:35 UTC
    http://atlasathome.cern.ch/

    Herzliche Grüße

    Yeti

  10. Avatar von Inya
    Titel
    Full Member

    Bewertung

    Registriert am
    21.11.2009

    Ort
    Oberberg

    Beiträge
    171

    Danke
    Danke gesagt 27   Danke erhalten 3

    #10

    Standard

    Wollte gerne auch diese VM VirtualBox-Geschichte ausprobieren und auch die anderen beiden Projekte vom CERN außer LHC@home versuchen.

    Habe also auf zwei 64Bit-Systemen(Windows), einmal mit 4GB und einmal mit 8GB RAM, die neueste Boinc-Version inkl. VirtualBox aufgespielt. Kam aber bisher nur Schrott heraus bzw. beide PCs waren nach einigen Stunden so total "eingefroreren", dass nichts mehr ging als vom Strom trennen und neu starten. Und das, obwohl bei beiden PCs im Boinc-Manager eingetragen war: Nutze höchstens 80% CPU time und nutze höchstens 75% Arbeitsspeicher. Aber ich habe so das 'Gefühl', diese VirtualBoxen interessiert das nicht sonderlich, oder?

    Nun meine Fragen:

    Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.
    Wie geht das?
    Muss ich das (wo?) in BoincManager einstellen? Finde da nichts. Beim Projekt auch nicht. Im Oracle-Programm?
    Ist damit gemeint, nur eine (wär mir jetzt erstmal am liebsten) oder max. zwei Atlas-WUs und auch sonst nix CPU-mäßiges oder kann ich ganz andere Projekte dann wohl doch noch neben her laufen haben?

    wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt
    Dabei handelt es sich aber tatsächlich um die Zeile im 3. Reiter des BoincManagers? Und da hält sich/halten sich diese VirtualBoxes dran??

    Lieben Dank schon mal für Eure Hilfe!

  11. Avatar von Yeti
    Titel
    Neuling

    Bewertung

    Registriert am
    17.02.2010

    Beiträge
    19

    Danke
    Danke gesagt 0   Danke erhalten 1

    #11

    Standard

    Als erstes prüfe bitte, welche VirtualBox-Version du installiert hast, es sollte auf alle Fälle "nur" die Version 4.3.12 sein, neuere Versionen sind kritisch und funktionieren unter Umständen nicht richtig.

    Hast du schon mal irgend etwas mit Virtualisierung laufen gehabt ? Wenn nein, solltest du sicherstellen, daß im BIOS die Hardwarevirtualisierung aktiviert ist. Nach Aktivierung dieses Settings muß der PC ausgeschaltet werden, ein Warmstart lädt den neuen Parameter nicht.

    Dann würde ich sicherstellen, daß du nur 1 WU rechnest, das machst du am besten zunächst per Hand, indem du weitere runtergeladene WUs im BOINC-Manager einfach suspendeds.

    Jede WU benötigt aktuell etwas mehr als 2 GB Hauptspeicher.

    Wenn du also ein System mit 4 GB verwendest und das Setting "Arbeitsspeicher: wenn Computer benutzt wird, nutze höchstens" 50% hast, kann Atlas zeitweise nur 2,0 GB verwenden, braucht aber 2,1 GB und dann hängt es fest und / oder fängt das swappen an und dann wird dein PC unbenutzbar, aber es wird auch nichts sinnvolles mehr getan

  12. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    4.508

    Danke
    Danke gesagt 230   Danke erhalten 55

    #12

    Standard

    Ich habe mir auf meiner 3 GHz-Kiste mit 6 GB RAM eine app_config.xml ins Projektverzeichnis /var/lib/boinc-client/projects/atlasathome.cern.ch gebastelt:

    <app_config>
    <app>
    <name>ATLAS</name>
    <max_concurrent>1</max_concurrent>
    </app>
    </app_config>

    und mit max_concurrent 1 rechnet die Kiste auch nur eine ATLAS-WU.
    Unter Windows musst du die Datei im entsprechenden Projektordner speichern.

    Viel Erfolg


    Edith sagt, die anderen Hinweise von Yeti sind natürlich trotzdem zu beachten ;-)
    Geändert von taurec (01.01.2015 um 13:00 Uhr)
    Ciao taurec

  13. Avatar von Inya
    Titel
    Full Member

    Bewertung

    Registriert am
    21.11.2009

    Ort
    Oberberg

    Beiträge
    171

    Danke
    Danke gesagt 27   Danke erhalten 3

    #13

    Standard

    Vielen Dank für Eure Hilfe!

    es sollte auf alle Fälle "nur" die Version 4.3.12 sein
    Jep, war es auf beiden PCs.

    im BIOS die Hardwarevirtualisierung aktiviert
    Ich denke, das ist bereits so eingestellt. Habe im BIOS (Version 2.10.1207 der Acer Inc.) unter "Advanced" eine Zeile "Intel VT [Enabled]" gefunden und im Text dazu steht: "When enabled, a VMM can utilize the additional hardware capabilities provided by Virtualization Technology." Ich denke, das sollte es sein, oder?

    Wenn du also ein System mit 4 GB verwendest...
    Alles klar. Ich hab jetzt den 4GB-Rammer erst mal wieder von diesen Projekten abgezogen. Ich denke, da ich den sowieso durchgehend auch ganz normal benutzen will, lasse ich das bei diesem System erstmal.

    Auf dem PC mit 8GB RAM versuche ich es weiter. Dazu habe ich erstmal alles wieder gelöscht und nochmals neu eingerichtet, diesmal aber nur VirtualLHC aktiviert. Ich warte nun erst einmal ab, ob das korrekte Ergebnisse produziert und kann dann ja im positiven Fall später auch noch Atlas probieren.
    Auch wenn ich jetzt dadurch etwas im falschen Thread bin noch drei kurze Fragen bitte:

    1.
    eine app_config.xml ins Projektverzeichnis
    Ok, was trage ich bei <name> ein für das VirtualLHC-Projekt? Genau das: VirtualLHC ?

    2. Weil ich dachte, eine <name>-Definition stände vielleicht in einer anderen dort liegenden xml-Datei, habe ich in den Ordner schon reingeschaut, aber da liegt nur eine (in der <name> nicht vorkommt) und die lautet:

    <?xml version="1.0"?>
    - <vbox_job>
    <os_name>Linux26</os_name>
    <memory_size_mb>256</memory_size_mb>
    <enable_network/>
    <enable_floppyio/>
    <enable_remotedesktop/>
    <enable_cern_dataformat/>
    <job_duration>86400</job_duration>
    <pf_guest_port>80</pf_guest_port>
    <pf_host_port>7859</pf_host_port>
    </vobx_job>
    Ist das wohl in Ordnung so? Mich wundert, dass bei cern_dataformat nichts ausgefüllt ist, wenn man doch fürs CERN rechnet ,aber vielleicht braucht's das nicht.

    3. Was trage ich am besten im Boinc-Manager im 3. Reiter unter "Schreibe auf Festplatte höchstens alle ... Sekunden" ein, wenn ich die Festplatte doch ein wenig schonen will (der PC läuft im Allgemeinen durch, ich nehme also an, ich kann da eine ziemlich hohe Sekundezahl eintragen, jede Stunde einmal, also 3600? Und die VirtualBox macht das dann tatsächlich so, wie es im BoincManager steht oder muss ich das Zusatzprogramm extra dafür anweisen?

  14. Avatar von iz-germany-timo
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.11.2013

    Ort
    Berlin

    Beiträge
    1.016

    Danke
    Danke gesagt 29   Danke erhalten 25

    #14

    Standard

    Ich schliesse mich hier an und habe noch zusätzliche Fragen.
    Ich habe 8 GB Ram; habe vor vorsichtshalber auf ein neues 16 GB Corsair Dominator upzugraden,
    da pro WU ja wohl 2 GB draufgehen.

    Muss ich Boinc neu installieren mit der VM?
    Oder kann ich die VM mit dem Extension Pack runterladen wie in unserer Wiki beschrieben?
    Muss dann in der VM Boinc für Linux installieren und los gehts?

    evtl. die VM auf einer eigenen Festplatte laufen zu lassen?
    ( zur Zeit ist nämlich Boinc bei mir auf einer SSD und das Datenverzeichnes auf einer HDD )
    würde dann eine dritte HDD anhängen

    Hab null Erfahrung mit VM - der einfachste Weg wäre mir lieb
    LG Timo

    [my Badges] >>KIVA Lending<<
    Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans

  15. Avatar von Yeti
    Titel
    Neuling

    Bewertung

    Registriert am
    17.02.2010

    Beiträge
    19

    Danke
    Danke gesagt 0   Danke erhalten 1

    #15

    Standard

    Inya, app_config für vLHC:

    <app_config>
    <app>
    <name>vboxwrapper</name>
    <max_concurrent>1</max_concurrent>
    </app>
    <app_version>
    <app_name>vboxwrapper</app_name>
    <plan_class>vbox64</plan_class>
    <avg_ncpus>1.0</avg_ncpus>
    </app_version>
    </app_config>

    Die 3600 kannst du eintragen, das funzt dann. Allerdings weiß ich nicht, inwieweit vLHC überhaupt Snapshots erzeugt


    Hinzugefügter Post:

    Ach so, ich seh gerade, die avg_ncpus solltest du auf 1.0 setzen
    Geändert von Yeti (01.01.2015 um 17:49 Uhr) Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

  16. Avatar von taurec
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    30.06.2008

    Ort
    Allerorten

    Beiträge
    4.508

    Danke
    Danke gesagt 230   Danke erhalten 55

    #16

    Standard

    Zitat Zitat von iz-germany-timo Beitrag anzeigen
    Ich schliesse mich hier an und habe noch zusätzliche Fragen.
    Ich habe 8 GB Ram; habe vor vorsichtshalber auf ein neues 16 GB Corsair Dominator upzugraden,
    da pro WU ja wohl 2 GB draufgehen.

    Muss ich Boinc neu installieren mit der VM?
    Oder kann ich die VM mit dem Extension Pack runterladen wie in unserer Wiki beschrieben?
    Muss dann in der VM Boinc für Linux installieren und los gehts?

    evtl. die VM auf einer eigenen Festplatte laufen zu lassen?
    ( zur Zeit ist nämlich Boinc bei mir auf einer SSD und das Datenverzeichnes auf einer HDD )
    würde dann eine dritte HDD anhängen

    Hab null Erfahrung mit VM - der einfachste Weg wäre mir lieb
    Servus,

    ich kann hier zwar nur von Linux reden; und für ATLAS, vLHC habe ich noch nicht getestet. Es sollte reichen, wenn du das VirtualBox-Paket einfach nur installierst. Die WU die heruntergeladen wird, ist praktisch eine virtuelle Maschine (Download ca. 114 MB pro WU bei mir).
    Du brauchst da nicht zusätzlich eine VM aufsetzen.
    Ciao taurec

  17. Avatar von aendgraend
    Titel
    Administrator

    Bewertung

    Registriert am
    21.06.2007

    Beiträge
    7.721

    Danke
    Danke gesagt 496   Danke erhalten 601

    #17

    Standard

    Ich habe auf meinen Rechnern BOINC 7.2.42 OHNE die VirtualBox Implementierung, sondern VirtualBox einzeln installiert mit Version 4.2.16 und vLHC bzw. ATLAS rechnet einwandfrei. Allerdings lasse ich höchstens 2 WUs parallel berechnen und halte die anderen manuell an, wenn ich mehr bekommen habe.
    (Die Kisten haben aber jeweils 16 GB RAM.)

  18. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Granada

    Beiträge
    17.179

    Danke
    Danke gesagt 163   Danke erhalten 1.826

    #18

    Standard

    Auch an diesem Wochenende habe ich mir einen Projektartikel im Wiki vorgenommen, diesmal ATLAS@Home; in weiten Teilen ist es eine Linksammlung geworden.

    Erwähnt sei auch ein Beitrag zu den aktuellen WUs aus den Projektnews von vergangenem Mittwoch:
    Zitat Zitat von http://atlasathome.cern.ch/
    About new WUs (since v1.35)
    Dear all,

    The new bunch of WUs released a couple of days ago with the new application are quite different than the previous ones which were submitted for some months.

    Within previous WUs production of top quark within the ATLAS were simulated (you can have a look at our public web page : https://atlasphysathome.web.cern.ch/...2015-top-quark ). Within recent WUs, W boson decays within the ATLAS detector are simulated (we are preparing a detailed article to be posted on our public site).

    As the W boson mass is 1/2 the mass of a top quark it produces much less activity in the detector through its decay. It is faster to simulate a W boson event than a top quark. As the number of events to be simulated per WU is fixed, each WU of a W boson takes less CPU cycles. That is less credit per WU for the newly released WUs.

    I hope it helps volunteers understanding some the behaviours of the new bunch of WUs.

    Thank you again for your help in the ATLAS simulation effort!
    3 Jun 2015, 10:15:41 UTC
    Zitat Zitat von auf Deutsch
    Über die neuen WUs (seit v1.35)
    Hallo zusammen,

    die neue Serie von WUs, die seit einigen Tagen mit den neuen Anwendungen herausgegeben wird, ist ziemlich anders als die bisherigen in den letzten Monaten.

    In den vorherigen WUs wurde die Erzeugung von Top-Quarks im ATLAS simuliert (ihr könnt auf unserer öffentlichen Seite nachschauen: https://atlasphysathome.web.cern.ch/...2015-top-quark ). In den neuen WUs werden Zerfälle von W-Bosonen im ATLAS-Detektor simuliert (wir bereiten einen ausführlichen Artikel für unsere öffentliche Seite vor).

    Da die Masse des W-Bosons die Hälfte der Masse des Top-Quarks ist, erzeugt es durch seinen Zerfall viel weniger Aktivität im Detektor. Es geht schneller, ein W-Boson-Ereignis zu simulieren als ein Top-Quark-Ereignis. Da die Zahl der pro WU simulierten Ereignisse fest ist, braucht jede WU mit einem W-Boson weniger CPU-Zeit. Das bedeutet weniger Credits pro WU für die neu herausgegebenen WUs.

    Ich hoffe, dies hilft den Freiwilligen, das Verhalten der neuen WU-Serie etwas zu verstehen.

    Nochmals Danke für eure Hilfe bei den ATLAS-Simulationen!
    03.06.2015, 11:15:41 MEZ
    Gut, dass es seit Montag auch wieder eine funktionstüchtige Windows-Anwendung gab. So konnte ich mein versehentlich geschaltetes VDSL wenigstens noch einen Tag richtig nutzen, bevor man mich dann komplett abgeklemmt hat.
    Geändert von pschoefer (07.06.2015 um 12:16 Uhr)
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  19. Avatar von HJL
    Titel
    Gold Member

    Bewertung

    Registriert am
    19.12.2009

    Ort
    weit im Süden

    Beiträge
    2.215

    Danke
    Danke gesagt 62   Danke erhalten 24

    #19

    Standard

    bei ATLAS@Home gibt's dann jetzt auch diverse Badges
    https://atlasphysathome.web.cern.ch/...d-model-badges

    hl
    hl

  20. Avatar von pschoefer
    Titel
    Esel

    Bewertung

    Registriert am
    07.07.2007

    Ort
    Granada

    Beiträge
    17.179

    Danke
    Danke gesagt 163   Danke erhalten 1.826

    #20

    Standard

    Falls jemand in der nächsten Woche eine Beschäftigung für ein paar CPU-Kerne braucht:
    Zitat Zitat von http://atlasathome.cern.ch/
    Can we beat the ATLAS record?
    Hi all,

    Next week (starting 22 Feb) our ATLAS colleagues in the US will get their hands on 100,000 CPU cores from Amazon EC2 for a few days to run ATLAS simulation. In combination with this we are going to push all the other ATLAS resources we have in order to break the record of concurrent simulation tasks running. Can you guys spread the word around to get people to contribute a bit more to ATLAS@Home next week?

    You can see the number of tasks running per site for the last month on this page: http://atlasathome.cern.ch/atlas_job.php (ATLAS@Home is "BOINC"). Thanks in advance for your help!
    18 Feb 2016, 9:02:37 UTC
    Zitat Zitat von auf Deutsch
    Können wir den ATLAS-Rekord brechen?
    Hallo zusammen,

    nächste Woche (ab dem 22.02.) haben unsere ATLAS-Kollegen in den USA für ein paar Tage 100000 CPU-Kerne von Amazon EC2 zur Verfügung, um darauf ATLAS-Simulationen laufen zu lassen. Zusätzlich versuchen wir, alle anderen ATLAS-Ressourcen, die wir haben, zu mobilisieren, um den Rekord der meisten gleichzeitig laufenden Simulationsaufgaben zu brechen. Könnt ihr das Wort verbreiten, damit die Leute nächste Woche etwas mehr zu ATLAS@Home beitragen?

    Ihr könnt die Zahl der laufenden Aufgaben pro Standort im letzten Monat auf dieser Seite anschauen: http://atlasathome.cern.ch/atlas_job.php (ATLAS@Home ist dort "BOINC"). Danke im Voraus für eure Hilfe!
    18.02.2016, 10:02:37 MEZ
    Gruß
    Patrick

    "Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]

  21. Avatar von iz-germany-timo
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.11.2013

    Ort
    Berlin

    Beiträge
    1.016

    Danke
    Danke gesagt 29   Danke erhalten 25

    #21

    Standard

    Hab jetzt auch extra die VM drauf Vers. 5.0.14
    Atlas@home hinzugefügt und los ging es....

    18 ungültig und 1 Fehler

    Status: Alle (40) · In Bearbeitung (16) · Überprüfung ausstehend (0) · Überprüfung ohne Ergebnis (0) · Gültig (5) · Ungültig (18) · Fehler (1)

    Das mit dem Ram hab ich kapiert, ist sonst noch auf was zu achten? Ist ja nicht normal mit
    den ganzen Ungültigkram
    LG Timo

    [my Badges] >>KIVA Lending<<
    Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans

  22. #22

    Standard

    Da bist du leider nicht alleine.

    State: All (93) · In progress (18) · Validation pending (0) · Validation inconclusive (0) · Valid (47) · Invalid (14) · Error (14)


    Diese Aufgaben verbrauchen nicht nur bis zu 1,9 GB Arbeitsspeicher sondern bis zu 2,6 GB. Bei 9 Aufgaben parallel wurden bis zu 23 GB benötigt. Soll heißen, 8 Aufgaben benötigen mehr als 16 GB Ram.

    Wieviele Aufgaben lässt du parallel laufen ?

    gruß desktop64

  23. Avatar von iz-germany-timo
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.11.2013

    Ort
    Berlin

    Beiträge
    1.016

    Danke
    Danke gesagt 29   Danke erhalten 25

    #23

    Standard

    Am Anfang waren es 6, dann 4, dann 2.....
    Hatte es schnell mit dem RAM bemerkt.

    Jetzt liegen noch zu bearbeitende WU´s in meinem Boinc-Manager rum mit dem Vermerk "verdrängt"... heeee? Meine CPU macht gerade nichts ( ok. bissl für die SETI WU´s , daß sind aber gerade mal 2 - 5% meiner Power)

    Kompliziert, komisch..
    LG Timo

    [my Badges] >>KIVA Lending<<
    Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans


  24. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    02.03.2010

    Ort
    Magdeburg

    Beiträge
    692

    Danke
    Danke gesagt 52   Danke erhalten 3

    #24

    Standard

    hab momentan eine Kiste mit 96 GB und 24 Kernen incl HT dort dasselbe. fehler auch wenn ich nur 14 WU laufen lasse, Speichermangel würde ich da ausschließen.
    hier "pilotpirx" in projekten "cpuid"

  25. Avatar von iz-germany-timo
    Titel
    Gold Member

    Bewertung

    Registriert am
    23.11.2013

    Ort
    Berlin

    Beiträge
    1.016

    Danke
    Danke gesagt 29   Danke erhalten 25

    #25

    Standard

    mmhhhhh.. 96 GB ram und.... sabber sabber... 24 Kerne HT haaaben wolln

    EDIT:

    sooo. Folgende Änderung vorgenommen: Mit app_config erstmal den Ram-schwachen Laptop auf eine WU geprügelt und den 16 Gig-Rechner auf 3 WU´s max.,
    sowie die hier im Thread empfohlene VM 4.2.16 gedowngraded ... Ergebnisse folgen.... (Ram-kauf folgt auch )
    Geändert von iz-germany-timo (19.02.2016 um 21:55 Uhr)
    LG Timo

    [my Badges] >>KIVA Lending<<
    Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO