PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATLAS@home



shka
20.06.2014, 12:32
Projekt "Atlas@home"

Habe heute vom Projekt folgende News erhalten:

Thanks for your valuable support to the ATLAS@home project. The ATLAS@home project officially moves its server from IHEP to CERN, thus the current server( http://gilda117.ihep.ac.cn ) is fully replaced by a new server at CERN ( http://atlasathome.cern.ch ). If you would like to continue to support ATLAS@home, please connect to the new URL http://atlasathome.cern.ch !

Again your contribution to the project is highly appreciated!

ATLAS@home Project

To opt out of future emails from REPLACE WITH PROJECT NAME, please edit your project preferences at http://gilda117.ihep.ac.cn/ATLAS/prefs.php?subset=project


Das Projekt ist umgezogen unter das Dach des CERN und unter neuer HP http://atlasathome.cern.ch erreichbar.

Zumindest bei mir wurde das Account nicht mit rübergezogen (hatte aber keine Credits, da ich bisher nur Fehler produziert habe :sad:).

anchedo
26.06.2014, 16:10
Bei ATLAS wurden heute auch die Credits des alten Projekts auf das neue übertragen (zumindest bei mir). :thumbup:

bossmaniac
26.06.2014, 16:31
Projekt "Atlas@home"

Habe heute vom Projekt folgende News erhalten:


Das Projekt ist umgezogen unter das Dach des CERN und unter neuer HP http://atlasathome.cern.ch erreichbar.

Zumindest bei mir wurde das Account nicht mit rübergezogen (hatte aber keine Credits, da ich bisher nur Fehler produziert habe :sad:).

In wie weit unterscheidet sich das Projekt von lhc@home?

Hoshione
30.06.2014, 22:56
Ich habe sechs Atlas Wu´s am laufen.......und laufen.......und laufen....mittlerweile zwischen 25 und 98 Stunden. Alle zwischen 99,191 % und 100 %.....und sie laufen und laufen.......ich weiss nicht ob da was wrong ist ? Die mit 100 % zeigen dies mittlerweile seit über 24 Stunden :undecided:

JayPi
01.07.2014, 07:28
Ich habe sechs Atlas Wu´s am laufen.......und laufen.......und laufen....mittlerweile zwischen 25 und 98 Stunden. Alle zwischen 99,191 % und 100 %.....und sie laufen und laufen.......ich weiss nicht ob da was wrong ist ? Die mit 100 % zeigen dies mittlerweile seit über 24 Stunden :undecided:

Bei mir waren die WUs normalerweise in ca.2-3 Stunden durch. Die Creditausbeute ist seit ein paar Tagen mit 8-15 Credits je WU so gering, dass ich erstmal von diesem Projekt Abstand halte.
Was die WUs ausbremst sind die vielen Snapshots der VMs, die die Platte ständig rattern lassen. Vielleicht bremsen die bei Dir alles aus?

pschoefer
02.07.2014, 16:26
Das Projekt hat nun seinen eigenen Thread bekommen, bevor der Neue-Projekte-Thread zu sehr off-Topic wird. ;)


In wie weit unterscheidet sich das Projekt von lhc@home?
LHC@home arbeitet an der Optimierung des LHC an sich, ATLAS@home simuliert, wie Erzeugung und Zerfall hypothetischer Teilchen aussehen könnten.

Hoshione
06.07.2014, 15:17
Hallo zusammen, ich begreifs langsam nicht mehr.....zuerst haut mir das Projekt alle sechs WU´s die allesamt über 100 Stunden hatten total ins Nirvana, jetzt mittlerweile wieder eine WU über 100 und die anderen zwischen 24 und 40 Stunden Laufzeit allesamt bei 100 %.......ist ja OK wenn ein Projekt umgestellt wird und einiges nicht mehr funzt....aber so verliere ich langsam die Lust wenn ich meine Rechenzeit jedesmal ins blaue blase..... :undecided::(

JayPi
06.07.2014, 16:21
Mir gefällt das Projekt Atlas@Home auch nicht mehr so richtig. Die WUs der letzten Tagen liefen zwar einwandfrei in 1-2 Stunden durch, aber der Ertrag ist extrem gering für den Aufwand.

Früher wurden die WUs scheinbar nach der Bruttozeit berechnet, da habe ich schnell rund 75K Credits zusammenbekommen, jetzt wird die Netto CPU-Zeit genommen und die Credits tröpfeln nur noch. Da das Projekt extrem Netzwerkintensiv ist - je WU 70 MB und manchmal WUs mit 1,2 GB - wird das DSL schon kräftig belastet, aber auch während der Laufzeit entsteht ein beachtlicher Traffic. Mein 6 Mbit DSL ist dabei ständig am Limit. Bekomme ich den Download einer 1,2 GB WU mit breche ich diese ab und es wird dann eine 70 MB WU geladen.

Weiterhin entsteht durch die häufigen Snapshots in der VM eine hohe Last auf den Festplatten wenn viele WUs gleichzeitig laufen, eine Platte ist durch die Dauerbelastung bereits hinüber. Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.

Mein Ziel 100K zu erreichen wird immer schwieriger, 9000 fehlen noch.

Yeti
15.11.2014, 23:04
Hallo Cruncher von Seti-Germany,

Atlas benötigt Eure Hilfe, man hat aktuell einen Haufen WUs und braucht diese möglichst schnell abgearbeitet.

Die WUs haben inzwischen den nachträglichen Download deutlich verringert, ein deutlicher Teil der benötigten Daten wird inzwischen direkt mit dem WU-Download mitgeliefert.

Und wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt, werden auch nicht mehr so viele Snapshots erzeugt.

Ach ja, als Team seit Ihr gerade auf Platz 25, die kleinen Nordlichter auf Platz 2 ? Wollt Ihr das so stehen lassen ?

Hier das Original-Post:


Request for more crunching in next week or two
The current set of ATLAS@Home work units are quite important to the experiment and would like to get them finished as quickly as possible. Therefore if you have more CPU to donate to ATLAS@Home over the next couple of weeks to crunch through these WU it would be very much appreciated! There are currently around 7000 WU left to crunch in this set and we will provide regular updates of how many are left to go.

Many of the server-side scalability issues have been addressed and we are confident that we can handle more concurrent WU at this time. However the vboxwrapper is still having issues in some cases, so if you notice that you have WUs that are stalled or WUs that consume very small amount of cpu for more than 30 minutes, please abort them since they will most likely not succeed. The expected cputime usage of the WUs varies from 6 to 36 hour, so please ignore the WU progress as reported by the client.

Thank you in advance for your help! 15 Nov 2014, 14:38:35 UTC


http://atlasathome.cern.ch/

Herzliche Grüße

Yeti

Inya
01.01.2015, 11:55
Wollte gerne auch diese VM VirtualBox-Geschichte ausprobieren und auch die anderen beiden Projekte vom CERN außer LHC@home versuchen.

Habe also auf zwei 64Bit-Systemen(Windows), einmal mit 4GB und einmal mit 8GB RAM, die neueste Boinc-Version inkl. VirtualBox aufgespielt. Kam aber bisher nur Schrott heraus bzw. beide PCs waren nach einigen Stunden so total "eingefroreren", dass nichts mehr ging als vom Strom trennen und neu starten. Und das, obwohl bei beiden PCs im Boinc-Manager eingetragen war: Nutze höchstens 80% CPU time und nutze höchstens 75% Arbeitsspeicher. Aber ich habe so das 'Gefühl', diese VirtualBoxen interessiert das nicht sonderlich, oder?

Nun meine Fragen:


Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.
Wie geht das?
Muss ich das (wo?) in BoincManager einstellen? Finde da nichts. Beim Projekt auch nicht. Im Oracle-Programm?
Ist damit gemeint, nur eine (wär mir jetzt erstmal am liebsten) oder max. zwei Atlas-WUs und auch sonst nix CPU-mäßiges oder kann ich ganz andere Projekte dann wohl doch noch neben her laufen haben?


wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt

Dabei handelt es sich aber tatsächlich um die Zeile im 3. Reiter des BoincManagers? Und da hält sich/halten sich diese VirtualBoxes dran??

Lieben Dank schon mal für Eure Hilfe! :)

Yeti
01.01.2015, 12:07
Als erstes prüfe bitte, welche VirtualBox-Version du installiert hast, es sollte auf alle Fälle "nur" die Version 4.3.12 sein, neuere Versionen sind kritisch und funktionieren unter Umständen nicht richtig.

Hast du schon mal irgend etwas mit Virtualisierung laufen gehabt ? Wenn nein, solltest du sicherstellen, daß im BIOS die Hardwarevirtualisierung aktiviert ist. Nach Aktivierung dieses Settings muß der PC ausgeschaltet werden, ein Warmstart lädt den neuen Parameter nicht.

Dann würde ich sicherstellen, daß du nur 1 WU rechnest, das machst du am besten zunächst per Hand, indem du weitere runtergeladene WUs im BOINC-Manager einfach suspendeds.

Jede WU benötigt aktuell etwas mehr als 2 GB Hauptspeicher.

Wenn du also ein System mit 4 GB verwendest und das Setting "Arbeitsspeicher: wenn Computer benutzt wird, nutze höchstens" 50% hast, kann Atlas zeitweise nur 2,0 GB verwenden, braucht aber 2,1 GB und dann hängt es fest und / oder fängt das swappen an und dann wird dein PC unbenutzbar, aber es wird auch nichts sinnvolles mehr getan

taurec
01.01.2015, 12:29
Ich habe mir auf meiner 3 GHz-Kiste mit 6 GB RAM eine app_config.xml ins Projektverzeichnis /var/lib/boinc-client/projects/atlasathome.cern.ch gebastelt:

<app_config>
<app>
<name>ATLAS</name>
<max_concurrent>1</max_concurrent>
</app>
</app_config>

und mit max_concurrent 1 rechnet die Kiste auch nur eine ATLAS-WU.
Unter Windows musst du die Datei im entsprechenden Projektordner speichern.

Viel Erfolg:thumbup:


Edith sagt, die anderen Hinweise von Yeti sind natürlich trotzdem zu beachten ;-)

Inya
01.01.2015, 14:55
Vielen Dank für Eure Hilfe!


es sollte auf alle Fälle "nur" die Version 4.3.12 sein
Jep, war es auf beiden PCs.


im BIOS die Hardwarevirtualisierung aktiviert
Ich denke, das ist bereits so eingestellt. Habe im BIOS (Version 2.10.1207 der Acer Inc.) unter "Advanced" eine Zeile "Intel VT [Enabled]" gefunden und im Text dazu steht: "When enabled, a VMM can utilize the additional hardware capabilities provided by Virtualization Technology." Ich denke, das sollte es sein, oder?


Wenn du also ein System mit 4 GB verwendest...
Alles klar. Ich hab jetzt den 4GB-Rammer erst mal wieder von diesen Projekten abgezogen. Ich denke, da ich den sowieso durchgehend auch ganz normal benutzen will, lasse ich das bei diesem System erstmal.

Auf dem PC mit 8GB RAM versuche ich es weiter. Dazu habe ich erstmal alles wieder gelöscht und nochmals neu eingerichtet, diesmal aber nur VirtualLHC aktiviert. Ich warte nun erst einmal ab, ob das korrekte Ergebnisse produziert und kann dann ja im positiven Fall später auch noch Atlas probieren.
Auch wenn ich jetzt dadurch etwas im falschen Thread bin :redface: noch drei kurze Fragen bitte:

1.
eine app_config.xml ins Projektverzeichnis
Ok, was trage ich bei <name> ein für das VirtualLHC-Projekt? Genau das: VirtualLHC ?

2. Weil ich dachte, eine <name>-Definition stände vielleicht in einer anderen dort liegenden xml-Datei, habe ich in den Ordner schon reingeschaut, aber da liegt nur eine (in der <name> nicht vorkommt) und die lautet:


<?xml version="1.0"?>
- <vbox_job>
<os_name>Linux26</os_name>
<memory_size_mb>256</memory_size_mb>
<enable_network/>
<enable_floppyio/>
<enable_remotedesktop/>
<enable_cern_dataformat/>
<job_duration>86400</job_duration>
<pf_guest_port>80</pf_guest_port>
<pf_host_port>7859</pf_host_port>
</vobx_job>

Ist das wohl in Ordnung so? Mich wundert, dass bei cern_dataformat nichts ausgefüllt ist, wenn man doch fürs CERN rechnet :D ,aber vielleicht braucht's das nicht.

3. Was trage ich am besten im Boinc-Manager im 3. Reiter unter "Schreibe auf Festplatte höchstens alle ... Sekunden" ein, wenn ich die Festplatte doch ein wenig schonen will (der PC läuft im Allgemeinen durch, ich nehme also an, ich kann da eine ziemlich hohe Sekundezahl eintragen, jede Stunde einmal, also 3600? Und die VirtualBox macht das dann tatsächlich so, wie es im BoincManager steht oder muss ich das Zusatzprogramm extra dafür anweisen?

iz-germany-timo
01.01.2015, 17:44
Ich schliesse mich hier an und habe noch zusätzliche Fragen.
Ich habe 8 GB Ram; habe vor vorsichtshalber auf ein neues 16 GB Corsair Dominator upzugraden,
da pro WU ja wohl 2 GB draufgehen.

Muss ich Boinc neu installieren mit der VM?
Oder kann ich die VM mit dem Extension Pack runterladen wie in unserer Wiki beschrieben?
Muss dann in der VM Boinc für Linux installieren und los gehts?

evtl. die VM auf einer eigenen Festplatte laufen zu lassen?
( zur Zeit ist nämlich Boinc bei mir auf einer SSD und das Datenverzeichnes auf einer HDD )
würde dann eine dritte HDD anhängen

Hab null Erfahrung mit VM - der einfachste Weg wäre mir lieb :D;)

Yeti
01.01.2015, 17:48
Inya, app_config für vLHC:

<app_config>
<app>
<name>vboxwrapper</name>
<max_concurrent>1</max_concurrent>
</app>
<app_version>
<app_name>vboxwrapper</app_name>
<plan_class>vbox64</plan_class>
<avg_ncpus>1.0</avg_ncpus>
</app_version>
</app_config>

Die 3600 kannst du eintragen, das funzt dann. Allerdings weiß ich nicht, inwieweit vLHC überhaupt Snapshots erzeugt


Hinzugefügter Post:

Ach so, ich seh gerade, die avg_ncpus solltest du auf 1.0 setzen

taurec
01.01.2015, 17:53
Ich schliesse mich hier an und habe noch zusätzliche Fragen.
Ich habe 8 GB Ram; habe vor vorsichtshalber auf ein neues 16 GB Corsair Dominator upzugraden,
da pro WU ja wohl 2 GB draufgehen.

Muss ich Boinc neu installieren mit der VM?
Oder kann ich die VM mit dem Extension Pack runterladen wie in unserer Wiki beschrieben?
Muss dann in der VM Boinc für Linux installieren und los gehts?

evtl. die VM auf einer eigenen Festplatte laufen zu lassen?
( zur Zeit ist nämlich Boinc bei mir auf einer SSD und das Datenverzeichnes auf einer HDD )
würde dann eine dritte HDD anhängen

Hab null Erfahrung mit VM - der einfachste Weg wäre mir lieb :D;)

Servus,

ich kann hier zwar nur von Linux reden; und für ATLAS, vLHC habe ich noch nicht getestet. Es sollte reichen, wenn du das VirtualBox-Paket einfach nur installierst. Die WU die heruntergeladen wird, ist praktisch eine virtuelle Maschine (Download ca. 114 MB pro WU bei mir).
Du brauchst da nicht zusätzlich eine VM aufsetzen.

aendgraend
07.01.2015, 23:16
Ich habe auf meinen Rechnern BOINC 7.2.42 OHNE die VirtualBox Implementierung, sondern VirtualBox einzeln installiert mit Version 4.2.16 und vLHC bzw. ATLAS rechnet einwandfrei. Allerdings lasse ich höchstens 2 WUs parallel berechnen und halte die anderen manuell an, wenn ich mehr bekommen habe.
(Die Kisten haben aber jeweils 16 GB RAM.)

pschoefer
07.06.2015, 12:00
Auch an diesem Wochenende habe ich mir einen Projektartikel im Wiki vorgenommen, diesmal ATLAS@Home; in weiten Teilen ist es eine Linksammlung geworden.

Erwähnt sei auch ein Beitrag zu den aktuellen WUs aus den Projektnews von vergangenem Mittwoch:

About new WUs (since v1.35)
Dear all,

The new bunch of WUs released a couple of days ago with the new application are quite different than the previous ones which were submitted for some months.

Within previous WUs production of top quark within the ATLAS were simulated (you can have a look at our public web page : https://atlasphysathome.web.cern.ch/content/spring-2015-top-quark ). Within recent WUs, W boson decays within the ATLAS detector are simulated (we are preparing a detailed article to be posted on our public site).

As the W boson mass is 1/2 the mass of a top quark it produces much less activity in the detector through its decay. It is faster to simulate a W boson event than a top quark. As the number of events to be simulated per WU is fixed, each WU of a W boson takes less CPU cycles. That is less credit per WU for the newly released WUs.

I hope it helps volunteers understanding some the behaviours of the new bunch of WUs.

Thank you again for your help in the ATLAS simulation effort!
3 Jun 2015, 10:15:41 UTC

Über die neuen WUs (seit v1.35)
Hallo zusammen,

die neue Serie von WUs, die seit einigen Tagen mit den neuen Anwendungen herausgegeben wird, ist ziemlich anders als die bisherigen in den letzten Monaten.

In den vorherigen WUs wurde die Erzeugung von Top-Quarks im ATLAS simuliert (ihr könnt auf unserer öffentlichen Seite nachschauen: https://atlasphysathome.web.cern.ch/content/spring-2015-top-quark ). In den neuen WUs werden Zerfälle von W-Bosonen im ATLAS-Detektor simuliert (wir bereiten einen ausführlichen Artikel für unsere öffentliche Seite vor).

Da die Masse des W-Bosons die Hälfte der Masse des Top-Quarks ist, erzeugt es durch seinen Zerfall viel weniger Aktivität im Detektor. Es geht schneller, ein W-Boson-Ereignis zu simulieren als ein Top-Quark-Ereignis. Da die Zahl der pro WU simulierten Ereignisse fest ist, braucht jede WU mit einem W-Boson weniger CPU-Zeit. Das bedeutet weniger Credits pro WU für die neu herausgegebenen WUs.

Ich hoffe, dies hilft den Freiwilligen, das Verhalten der neuen WU-Serie etwas zu verstehen.

Nochmals Danke für eure Hilfe bei den ATLAS-Simulationen!
03.06.2015, 11:15:41 MEZ

Gut, dass es seit Montag auch wieder eine funktionstüchtige Windows-Anwendung gab. So konnte ich mein versehentlich geschaltetes VDSL wenigstens noch einen Tag richtig nutzen, bevor man mich dann komplett abgeklemmt hat. :D

HJL
02.07.2015, 21:48
bei ATLAS@Home gibt's dann jetzt auch diverse Badges ;)
https://atlasphysathome.web.cern.ch/content/standard-model-badges

:x) hl

pschoefer
18.02.2016, 10:40
Falls jemand in der nächsten Woche eine Beschäftigung für ein paar CPU-Kerne braucht:

Can we beat the ATLAS record?
Hi all,

Next week (starting 22 Feb) our ATLAS colleagues in the US will get their hands on 100,000 CPU cores from Amazon EC2 for a few days to run ATLAS simulation. In combination with this we are going to push all the other ATLAS resources we have in order to break the record of concurrent simulation tasks running. Can you guys spread the word around to get people to contribute a bit more to ATLAS@Home next week?

You can see the number of tasks running per site for the last month on this page: http://atlasathome.cern.ch/atlas_job.php (ATLAS@Home is "BOINC"). Thanks in advance for your help!
18 Feb 2016, 9:02:37 UTC

Können wir den ATLAS-Rekord brechen?
Hallo zusammen,

nächste Woche (ab dem 22.02.) haben unsere ATLAS-Kollegen in den USA für ein paar Tage 100000 CPU-Kerne von Amazon EC2 zur Verfügung, um darauf ATLAS-Simulationen laufen zu lassen. Zusätzlich versuchen wir, alle anderen ATLAS-Ressourcen, die wir haben, zu mobilisieren, um den Rekord der meisten gleichzeitig laufenden Simulationsaufgaben zu brechen. Könnt ihr das Wort verbreiten, damit die Leute nächste Woche etwas mehr zu ATLAS@Home beitragen?

Ihr könnt die Zahl der laufenden Aufgaben pro Standort im letzten Monat auf dieser Seite anschauen: http://atlasathome.cern.ch/atlas_job.php (ATLAS@Home ist dort "BOINC"). Danke im Voraus für eure Hilfe!
18.02.2016, 10:02:37 MEZ

iz-germany-timo
19.02.2016, 12:02
Hab jetzt auch extra die VM drauf Vers. 5.0.14
Atlas@home hinzugefügt und los ging es....

18 ungültig und 1 Fehler :rolleyes:

Status: Alle (40) · In Bearbeitung (16) · Überprüfung ausstehend (0) · Überprüfung ohne Ergebnis (0) · Gültig (5) · Ungültig (18) · Fehler (1)

Das mit dem Ram hab ich kapiert, ist sonst noch auf was zu achten? Ist ja nicht normal mit
den ganzen Ungültigkram:undecided:

desktop64
19.02.2016, 16:03
Da bist du leider nicht alleine.

State: All (93) · In progress (18) · Validation pending (0) · Validation inconclusive (0) · Valid (47) · Invalid (14) · Error (14)


Diese Aufgaben verbrauchen nicht nur bis zu 1,9 GB Arbeitsspeicher sondern bis zu 2,6 GB. Bei 9 Aufgaben parallel wurden bis zu 23 GB benötigt. Soll heißen, 8 Aufgaben benötigen mehr als 16 GB Ram. ;)

Wieviele Aufgaben lässt du parallel laufen ?

gruß desktop64

iz-germany-timo
19.02.2016, 17:55
Am Anfang waren es 6, dann 4, dann 2.....
Hatte es schnell mit dem RAM bemerkt.

Jetzt liegen noch zu bearbeitende WU´s in meinem Boinc-Manager rum mit dem Vermerk "verdrängt"... heeee? Meine CPU macht gerade nichts ( ok. bissl für die SETI WU´s , daß sind aber gerade mal 2 - 5% meiner Power)

Kompliziert, komisch..:rolleyes::undecided:

pilotpirx
19.02.2016, 18:16
hab momentan eine Kiste mit 96 GB und 24 Kernen incl HT dort dasselbe. fehler auch wenn ich nur 14 WU laufen lasse, Speichermangel würde ich da ausschließen.

iz-germany-timo
19.02.2016, 18:37
mmhhhhh.. 96 GB ram und.... sabber sabber... 24 Kerne HT:cool: haaaben wolln;)

EDIT:

sooo. Folgende Änderung vorgenommen: Mit app_config erstmal den Ram-schwachen Laptop auf eine WU geprügelt und den 16 Gig-Rechner auf 3 WU´s max.,
sowie die hier im Thread empfohlene VM 4.2.16 gedowngraded ... Ergebnisse folgen.... (Ram-kauf folgt auch :D )

desktop64
19.02.2016, 22:13
Atlas ist sehr speziell, ich glaube deswegen holen die sich 100 000 CPU's. :cheesy:

@ pilotpirx was hast du da drauf Win oder Lin ? SSD oder HD ? Pausiert dein Bonc mal ne WU ?

gruß desktop64

pilotpirx
19.02.2016, 22:52
Atlas ist sehr speziell, ich glaube deswegen holen die sich 100 000 CPU's. :cheesy:

@ pilotpirx was hast du da drauf Win oder Lin ? SSD oder HD ? Pausiert dein Bonc mal ne WU ?

gruß desktop64

win server 2008R2, 300 GB Festplatte fürs System an der Kiste hängt dann noch ein Storage das er verwaltet. Der wird zz nich benötigt da darf ich den mal nutzen, Boinc nicht mache ich selber wenn ich für wuprop mal ein Projekt ein paar Stunden hochschraube.

desktop64
19.02.2016, 23:00
Boinc nicht mache ich selber wenn ich für wuprop mal ein Projekt ein paar Stunden hochschraube.

Eine pausierte WU, konnte ich bisher sofort abbrechen, da Berechnungsfehler bei raus kommt.

Ansonsten, ich nutze Linux 64 bit mit ssd und max 9 Aufgaben auf meinem Dualsockel.

gruß desktop64

pilotpirx
19.02.2016, 23:13
die Wus mit fehler laufen bei mir so ca 400/500 sec. habe sogar WUs liefen ca 60 min welche nach einem Neustart sofort beendet wurden und gutgeschrieben wurden, laufzeit sollte ca 6 Stunden sein. keine Ahnung was da abgeht.

desktop64
19.02.2016, 23:16
auf jeden fall nur k..cke. :undecided:

iz-germany-timo
20.02.2016, 10:00
Seit gestern wird´s besser bei mir:

Gültig (9) · Ungültig (29) · Fehler (7)
Über Nacht:
Gültig (32) · Ungültig (29) · Fehler (7)
20.2.2016 Stand: 15:30 Uhr
Gültig (42) · Ungültig (30) · Fehler (7)
21.2.2016 Stand: 15:20 Uhr
Gültig (104) · Ungültig (35) · Fehler (7)

Sind aber ganz schön empfindlich die Dinger:rolleyes:

Und schnell mal bissl Corsair Speicher gekauft 2133er.. vorerst 16 GB

FAZIT für alle Neulinge und meine Vorgehensweise ohne VM(VirtualMachine)-Kenntnisse:
- die aktuelle Version der Virtual Box runterladen und installieren
- danach Rechner neu starten!
- ATLAS als Projekt hinzufügen und los geht´s :thumbup:
ACHTUNG: rechnet pro WU mal mit 3 GB (zur Sicherheit) und 1 GB als Reserve, dann dürften auch keine Fehlerbestätigungen rauskommen (was bei mir der Fall war; ich war zu gierig)
Bei einem 8GB-RAM Rechner habe ich 2 WU´s
Bei einem 16GB-RAM Rechner habe ich 3 WU´s
( dies natürlich einstellen mit einer app_config )

desktop64
20.02.2016, 17:13
Also bei 3 Aufgaben parallel kann ich sagen, läuft es stabil bei mir. :cool:


Hinzugefügter Post:

State: All (165) · In progress (40) · Validation pending (0) · Validation inconclusive (0) · Valid (94) · Invalid (15) · Error (16)

iz-germany-timo
21.02.2016, 09:55
http://atlasathome.cern.ch/img/boinc_site.png

we need more.... we need more... we need more...
Morgen geht´s los

http://atlasathome.cern.ch/img/TopRuby-charm.png
TOP25% - bin dabei

Buckey01
21.02.2016, 14:13
Ich bin bei dem Projekt raus. Unter Windows 10 meckert mein Boinc mich an und sagt "it needs 6198.88 MB" bei 2 laufenden WU´s. :(
Wenn die Jungs von Atlas echt 100K an CPU Kernen einsetzen wollen, ist das nen Hammer-Vertrag mit einem RAM-Hersteller. Hut ab !

taurec
21.02.2016, 15:40
Ich bin bei dem Projekt raus. Unter Windows 10 meckert mein Boinc mich an und sagt "it needs 6198.88 MB" bei 2 laufenden WU´s. :(
Wenn die Jungs von Atlas echt 100K an CPU Kernen einsetzen wollen, ist das nen Hammer-Vertrag mit einem RAM-Hersteller. Hut ab !


Servus Buckey,
meint BOINC denn wirklich RAM oder evtl. Festplattenplatz? Bei CMS gabs letztens auch mal Probleme wegen Diskspace. Allerdings benötigen die CERN-Projekte allgemein schon etwas mehr an RAM, von LHC-classic mal abgesehen.

Buckey01
21.02.2016, 15:55
Hi taurec,
hast recht, das war nicht der RAM sondern disk-space. Wobei Boinc mittlerweile auch über 10 GB belegt.
Ist schon erschreckend was manche Boinc-Projekte einem User an Hardware-resourcen ab verlangen. :D

desktop64
22.02.2016, 15:42
Leider sieht man nicht's von den 100 000 CPU's


Tasks ready to send 1,978
Tasks in progress 10,664
Workunits waiting for validation 1
Workunits waiting for assimilation 0
Workunits waiting for file deletion 0
Tasks waiting for file deletion 0
Transitioner backlog (hours) 0

Users #
with recent credit 2,648
with credit 8,203
registered in past 24 hours 217
Computers #
with recent credit 3,399
with credit 10,921
registered in past 24 hours 79
current GigaFLOPs 5,432
Tasks by application
application unsent in progress avg runtime of last 100 results in h (min-max) users in last 24h
ATLAS Simulation 1,978 10,664 2.99 (0.02 - 62.42) 846

ob sie die selben Prob's haben, wie wir ?

gruß desktop64

pschoefer
22.02.2016, 16:01
ATLAS@Home ist ja nur ein kleines Rädchen im Getriebe des ATLAS-Projektes. Die CPUs aus der Amazon-Cloud bekommen das CERNVM-Image direkt, nicht über BOINC, zumal man dort sonst mit geschachtelter Virtualisierung arbeiten müsste.

Dennis-TW
22.02.2016, 16:06
ob sie die selben Prob's haben, wie wir ?
Das erste Problem ist schon mal, dass es in den USA gerade erst morgens/vormittags ist.

Das zweite Problem ist, dass man für 100.00 CPUs wohl nicht mal eben einfach Boinc installiert und das gleich alles läuft.

Soll heißen, abwarten und Tee trinken und immer auf die Zeitverschiebung achten. Wenn ich abends in Taiwans schon im Bett liege, fahren die Leute in Kalifornien gerade erst zur Arbeit (- 16 Stunden)

desktop64
22.02.2016, 19:28
Wenn ich Euch nicht hätte,

Danke ! :cool:

gruß desktop64

iz-germany-timo
23.02.2016, 18:54
Hab auf meinem Laptop Probs mit der VM (habe auch schon auf die neuste Version ein Update gemacht)
In Boinc steht: Verschoben: Forign VM Hyervisor locked hardware acceleration features.
:undecided: hm...

taurec
23.02.2016, 19:07
Timo, hast Du Hardware-Virtualization im BIOS aktiviert?
Läuft noch ein anderer Hypervisor? XP-modus z.B.?

Welches OS?

iz-germany-timo
23.02.2016, 19:33
Timo, hast Du Hardware-Virtualization im BIOS aktiviert?
Läuft noch ein anderer Hypervisor? XP-modus z.B.?

Welches OS?

Muss an sein, da es ja ca. eine Woche schon lief. Erst heute passiert.
Win 8.1 - sonst läuft nichts nebenbei

Zudem muss ich sagen, daß beim deinstallieren der VM ne Fehlermeldung kam "Schwerwiegender Fehler" uuhhhh.
Runtergeschmissen, neue Version installiert. Bei der alten Version war aber der gleiche Fehler.

Jetzt hat er alle WU´s angefangen die drauf waren und mit der o.g. Fehlermeldung angehalten. Jetzt läuft keine WU mehr .

taurec
23.02.2016, 19:43
sorry, ab win8 und höher bin ich komplett raus :lipsrsealed:

iz-germany-timo
23.02.2016, 20:10
sorry, ab win8 und höher bin ich komplett raus :lipsrsealed:

Danke trotzdem...
BIOS auch gecheckt, Hardwarevirt. nicht gefunden (ist noch das alte BIOS und nicht dies neue UEFI klick klick BIOS.

Komisch auch. Diese Meldung kommt immer genau bei 2,179%
Hab ATLAS jetzt aufm Lappi verbannt und rechne dort wieder WCG. *schmoll*

desktop64
24.02.2016, 01:18
Forign VM Hyervisor locked hardware acceleration features.
:undecided: hm...

Ist nicht Hyervisor = Hyper - V ??? , steht unter "System"-> "Beschleunigung" -> "Paravirtualisierung"

<-klick-> (https://technet.microsoft.com/de-de/library/ee941154%28v=ws.10%29.aspx)

gruß desktop64

pilotpirx
24.02.2016, 16:20
ab Win 8 ist MS HyperV mit an Board das beisst sich mit Oracle VirtualBox, musste man wohl abstellen weiss momentan aber nicht mehr wie, mal Tante Google fragen

iz-germany-timo
26.02.2016, 23:10
ab Win 8 ist MS HyperV mit an Board das beisst sich mit Oracle VirtualBox, musste man wohl abstellen weiss momentan aber nicht mehr wie, mal Tante Google fragen

Wie´s abzustellen ist habe ich gefunden, aber bei mir fehlt der Eintrag Hyper-V :shocked::undecided:
Mir jetzt auch egal. Was rumspinnt fliegt. Die Zeit kann ich mit anderen Projekten verbringen. 2 Rechner nun bei WCG. Sorry ATLAS.

XSmeagolX
27.02.2016, 08:05
Hyper-V ist nur in den Pro-Versionen mit drin. Soweit ich weiß, muss man diesen auch über die Features (Systemsteuerung-Programme) erst noch aktivieren (ist standardmäßig nicht mit aktiviert)


Gesendet von iPad mit Tapatalk

desktop64
27.02.2016, 13:08
aber bei mir fehlt der Eintrag Hyper-V :shocked::undecided:


Bei Virtualbox oder wo ?

gruß desktop64

iz-germany-timo
27.02.2016, 13:12
Bei Virtualbox oder wo ?

gruß desktop64

Bei "Programme / Features" - Windows Features aktivieren / deaktivieren


Hinzugefügter Post:


Hyper-V ist nur in den Pro-Versionen mit drin. Soweit ich weiß, muss man diesen auch über die Features (Systemsteuerung-Programme) erst noch aktivieren (ist standardmäßig nicht mit aktiviert)


Gesendet von iPad mit Tapatalk

dann dürfte der ja auch kein ärger machen... wenn nicht aktiviert bzw. nicht dabei.
:rolleyes:komplizierter kram. Ging ja am Anfang. Hm....

desktop64
27.02.2016, 13:22
Ist bei Dir dann eventuell ein Windowsupdate eingespielt worden ?

gruß desktop64

iz-germany-timo
06.03.2016, 10:37
Ist bei Dir dann eventuell ein Windowsupdate eingespielt worden ?

gruß desktop64

In der laufenden ATLAS-Phase hatte ich keine Updates gezogen, danach schon.

pschoefer
21.05.2016, 23:29
ATLAS@Home und die weiteren LHC-Projekte fanden Erwähnung in einer Zeitschrift am CERN:

ATLAS@Home in CERN Bulletin
ATLAS@Home wird in der dieswöchigen Ausgabe des CERN Bulletin (eine interne, zweiwöchentliche Zeitschrift des CERN) erwähnt:

http://cds.cern.ch/journal/CERNBulletin/2016/20/News%20Articles/2151943?ln=en

Hier könnt ihr über die Erfolge von ATLAS@Home und verwandter LHC@home-Projekte lesen. Viel Spaß dabei!
18.05.2016, 11:34:54 MEZ


Der Artikel richtet sich entsprechend eher an die Mitarbeiter am CERN, sei aber nichtsdestotrotz an dieser Stelle übersetzt:

Wie man dem CERN helfen kann, mehr Simulationen durchzuführen
Mit LHC@home könnt ihr aktiv zur Rechenleistung des Laboratoriums beitragen!

Ihr glaubt vielleicht, dass das große Rechenzentrum des CERN und das weltweite LHC Computing Grid genug Rechenleistung für alle Benutzer am Laboratorium bereitstellen. Aufgrund der riesigen Datenmenge aus den LHC-Experimenten und anderen Quellen werden jedoch immer zusätzliche Rechenkapazitäten benötigt, insbesondere für Simulationen von Ereignissen im Beschleuniger oder Verbesserungen des Beschleunigers und der Detektoren.

In diesem Bereich könnt ihr mithelfen, indem ihr BOINC (http://boinc.berkeley.edu/) installiert und Simulationen von LHC@home (http://cern.ch/lhcathome) auf euren Bürorechnern oder Laptops durchführt. Diese Simulationen im Hintergrund werden eure Arbeit nicht stören, da BOINC so konfiguriert werden kann, dass es die Berechnung einstellt, wenn der Rechner in Benutzung ist.

Wie in früheren Ausgaben des Bulletin erwähnt (siehe hier (https://cds.cern.ch/record/827810?ln=en) und hier (https://cds.cern.ch/record/1398635?ln=en)), hat die Beteiligung der LHC@home-Freiwilligen eine große Rolle bei den Simulationsstudien zum Teilchenstrahl im LHC gespielt. Die von ihnen zur Verfügung gestellte Rechenleistung entspricht ungefähr der Hälfte der Leistung des CERN-Batchsystems! Dank dieser wertvollen Beteiligung wurden detaillierte Studien feiner Wirkungen der nichtlinearen Strahl-Dynamik unter Verwendung des SixTrack (http://sixtrack-ng.web.cern.ch/sixtrack-ng/)-Codes durchgeführt. Diese waren nicht nur äußerst nützlich für den LHC, sondern auch für die verbesserte Version HL-LHC (http://hilumilhc.web.cern.ch/).

In neuerer Zeit wurde LHC@home dank Virtualisierung auf weitere Anwendungen ausgedehnt. Vollständige Physiksimulationen werden in kleinen virtuellen Maschinen (CernVM (http://cernvm.cern.ch/)) auf allen möglichen Rechnern der Freiwilligen durchgeführt. Als erstes wurden Monte-Carlo-Simulationen für Theoretiker in Form eines Projektes namens Test4Theory (http://lhcathome.web.cern.ch/projects/test4theory) aufgenommen. Die Ergebnisse werden an eine Datenbank namens MCPLots weitergegeben, die in der Theorie-Abteilung am CERN beheimatet ist. Seit 2011 wurden etwa 2,7 Billionen Ereignisse simuliert.

Nach diesem Erfolg wurde ATLAS das erste Experiment, das aufgenommen wurde (https://cds.cern.ch/journal/CERNBulletin/2014/50/News%20Articles/1971985?ln=en), und die Zahl der Freiwilligen, die sich an den Simulationen der Ereignisse im ATLAS-Detektor beteiligen, ist in den letzten 18 Monaten stetig gewachsen. Die Leistung ist inzwischen gleichwertig zu einem großen WLCG-Tier-2-Rechenzentrum! Diese Ereignisse werden vollständig in das Datenverwaltungssystem des Experiments aufgenommen und werden bereits für die Auswertung der Physik von Run 2 benutzt. Inzwischen werden auch Anwendungen für die anderen LHC-Experimente auf LHC@home (http://lhcathome.web.cern.ch/) getestet.

Wir rufen euch dazu auf, weitere Ergebnisse zu produzieren. Es ist wirklich einfach, mitzumachen! Auf einem normalen CERN-NICE-PC könnt ihr BOINC mit CMF installieren und dann wie auf der LHC@home-Website (http://lhcathome.web.cern.ch/join-us) und in der CMF-Anleitung beschrieben mit LHC@home verbinden. Wenn ihr einen Macintosh oder Linux-Desktop nutzt, beachtet bitte die Anleitung für eure Plattform auf der Website (http://cern.ch/lhcathome), welche auch ein Video-Tutorial enthält.

Helft unserer Beschleuniger- und Forschungsgemeinschaft und macht mit bei LHC@home!

---
Originaltexte:

ATLAS@Home in CERN Bulletin
ATLAS@Home features in this week's CERN Bulletin (CERN's internal bi-weekly newspaper):

http://cds.cern.ch/journal/CERNBulletin/2016/20/News%20Articles/2151943?ln=en

Here you can read about the achievements of ATLAS@Home as well as related LHC@Home projects. Happy reading!
18 May 2016, 10:34:54 UTC
How to help CERN to run more simulations (http://cds.cern.ch/journal/CERNBulletin/2016/20/News%20Articles/2151943?ln=en)

walker123
13.10.2016, 19:38
Hallo , hab da mal je Frage .. wie lange laufen denn die wu's bei euch ? Irgendwie kommt mein i 5 6600 So gar nicht an die vorhergesagte Zeit ran .. 4 std. 75 % und irgendwie kommt es mir so vor als ob sie langsamer werden ....

Gesendet von meinem HTC One mit Tapatalk

Yeti
13.10.2016, 20:19
Das läßt sich nicht so einfach beantworten.

Was rechnest du denn ? SingleCore oder MultiCore ?

Bei den MultiCore-WUs wurde vor kurzem die Anzahl der internen Tasks von 50 auf 100 erhöht, das bedeutet also, ziemlich genau doppelte Zeitdauer.

Oder hast du ein Problem auf deiner Maschine ? Dann kann dir folgende Checkliste helfen: http://atlasathome.cern.ch/forum_thread.php?id=581

walker123
13.10.2016, 20:26
Hey, Single Core zur Zeit .. wieso hat man da eigentlich im taskmanager ne CPU Auslastung von 1% ?

Gesendet von meinem HTC One mit Tapatalk

Yeti
13.10.2016, 20:30
Hey, Single Core zur Zeit .. wieso hat man da eigentlich im taskmanager ne CPU Auslastung von 1% ?

Entweder ist es die Spin-Up-Phase, oder die Cool-Down-Phase oder die WU ist so gut wie tot.

Unter Punkt 12 und 15 der Checkliste findest du, wie du herausfinden kannst, ob die WU noch was sinnvolles macht oder ob sie tot ist

walker123
13.10.2016, 21:21
Hmm schade dann sind meine wu's definitiv tot ... CPU Zeiten zwischen 2 Minuten und 2 Sekunden Pro wu .... Sad ::

Gesendet von meinem HTC One mit Tapatalk

Yeti
13.10.2016, 21:24
Na, dann arbeite doch einfach die Checkliste mal von oben nach unten durch, die Chancen stehen gut, daß du damit Atlas ans Laufen bekommst oder du erfährst, daß es nie laufen wird, weil du zum Beispiel hinter einer Firewall eingesperrt bist.

walker123
13.10.2016, 21:28
Jap danke dir werden ich morgen mal machen jetzt wird's zu spät ....

Gesendet von meinem HTC One mit Tapatalk

walker123
13.10.2016, 21:28
Aber ne Firewall könnte ich doch deaktivieren ... Oder nicht ???

Gesendet von meinem HTC One mit Tapatalk

walker123
14.10.2016, 18:36
Sooo die ersten wus wurden gerechnet .. Multi und Single Core ... Leider alle mit Bestätigungsfehler aber ich bin nicht alleine alle wus haben 4 Rechner mit fehlern ... Und nun ist das Projekt down

Gesendet von meinem HTC One mit Tapatalk

walker123
14.10.2016, 23:18
Vielen dank jeti !!! Soeben die ersten wu's erfolgreich zurückgemeldet !!!

Gesendet von meinem HTC One mit Tapatalk

Treti
29.10.2016, 12:52
Kann man irgendwo vorgeben, wieviele Cores Atlas nutzen darf? Zumindest die Multicore-WUs verhalten sich da sehr unkooperativ und blockieren gleich mal alle 8 Threads eines I7. Nur die GPU-WUs bekommen eben noch ihren Anteil.
Und dann stellt es sich noch folgendermaßen dar: die neuen Altlas-WUs haben ein Verfallsdatum von 12.11.2016. NFS- und LHC im Bunker: 04.11.2016. Irgendwie :confused:
Dominantes Verhalten bin ich ja von den LHC-WUs gewohnt (Wir sind da, macht mal Platz), aber das ist etwas zu viel des Guten. So interessant die ganze Angelegenheit auch ist.

WIN7 64 Prof, boinc_7.6.22_windows_x86_64_vbox (installiert wie heruntergeladen)

taurec
29.10.2016, 13:03
Anzahl der Cores kannst du in einer app_config.xml vorgeben; hier meine für 5 Cores:
<app_config>
<app>
<name>ATLAS</name>
</app>
<app_version>
<app_name>ATLAS_MCORE</app_name>
<avg_ncpus>5.000000</avg_ncpus>
<max_ncpus>5.000000</max_ncpus>
<plan_class>vbox_64_mt_mcore</plan_class>
<cmdline>--memory_size_mb 10000</cmdline>
<dont_throttle/>
<is_wrapper/>
<needs_network/>
</app_version>
</app_config>

Memorysize und anderes solltes du nach folgender Checkliste festlegen:
http://atlasathome.cern.ch/forum_thread.php?id=581#5350

[SG-2W]Kurzer
29.10.2016, 13:03
Hallo Treti

Ich habe das über eine app_config.xml gelöst.

<app_config>
<app>
<name>ATLAS</name>
<max_concurrent>3</max_concurrent>
</app>
</app_config>
<app_config>
<app_version>
<app_name>ATLAS_MCORE</app_name>
<avg_ncpus>4.000000</avg_ncpus>
<plan_class>vbox_64_mt_mcore</plan_class>
<cmdline>--memory_size_mb 5300</cmdline>
</app_version>
</app_config>

Du musst bei den Einstellungen aber den Speicherbedarf beachten. Ich glaube das steht auch in deren Forum, musste halt mal nachsehen.

Gruß Kurzer :x)

Treti
29.10.2016, 14:09
Danke für eure Meldungen.

Daraus ergibt sich jetzt folgender Zustand.
Atlas nutzt 4 Cores/Threads und 10 GB RAM (hatte diese Einstellung von SGKurzer nicht geändert)

Rest liegt brach, übrige Atlas-WUs warten auf Speicher. Die freien 6 GB interessieren die auf Grund der config wohl nicht.
WUs anderer CPU-Projekte (außer Wuprop) liegen auf Halde.

Selbst wenn ich die erzeugte app_config.xml lösche, bliebt dieser Zustand. Wo hat sich das noch eingenistet?


Ende vom Ganzen:
Egal, wiederhergestellt, 8 Cores und 16 GB zugewiesen (9,7 nutzt die Multicore_WU aktuell).
Ich werde die vorhandenen WUs zu Ende rechnen und mich wieder besser kooperierenden Projekten zuwenden.

taurec
29.10.2016, 15:32
Check, if you have have enough RAM for Atlas available. Each Atlas-Task needs 2,1 GB free RAM, MultiCore-WUs need 2,5 GB + 0,8 * number of cores (so 6,5 GB for a 5-Core WU)
also 2,5GB RAM prinzipiell bei MultiCore + für jeden Kern 0,8GB RAM - bei 4 Kernen solltest du also mindestens 5,7GB RAM zuordnen in der Zeile <cmdline>--memory_size_mb 5700</cmdline>

Treti
29.10.2016, 16:07
:erledigt:
Check, if you have have enough RAM for Atlas available. Each Atlas-Task needs 2,1 GB free RAM, MultiCore-WUs need 2,5 GB + 0,8 * number of cores (so 6,5 GB for a 5-Core WU)
also 2,5GB RAM prinzipiell bei MultiCore + für jeden Kern 0,8GB RAM - bei 4 Kernen solltest du also mindestens 5,7GB RAM zuordnen in der Zeile <cmdline>--memory_size_mb 5700</cmdline>



steht in meinem Post:




Ende vom Ganzen:
Egal, wiederhergestellt, 8 Cores und 16 GB zugewiesen (9,7 nutzt die Multicore_WU aktuell).
Ich werde die vorhandenen WUs zu Ende rechnen und mich wieder besser kooperierenden Projekten zuwenden.

Den Beitrag im Atlas-Forum kannte ich schon vorher, hat mir nur bei meiner oben gestellten Frage nicht geholfen.


Dazu noch angemerkt: Da die Multicore-WU sowieso alle anderen CPU-lastigen Projekte blockiert hat (auch wenn sie nur 4/8 Kerne bekommt), kann ich ihr auch die vollen Ressourcen zuweisen. Es stehen nämlich sonst noch NFS- und LHC-WUs im Bunker.

Abgesehen davon habe ich mit dem Projekt vorerst abgeschlossen. Siehe meinen letzten Beitrag. Von daher war das Thema für mich eh :erledigt:

taurec
29.10.2016, 16:47
hm, bei mir laufen neben der einen ATLAS-Multicore-WU noch 3 Wutzen VGTU und Collatz auf der GPU - da wird nix blockiert. Aber was soll's ...

bossmaniac
15.11.2016, 19:13
Sind die Multicore Wu auf bestimmte Befehlssätze optimiert? Auf einem i7 860 Nephalem (+16000s) dauert es ca 4x so lange wie auf einem 6700k Skylake (~4000s). Auf einem 4700 Haswell sind es um die 5-6000 s, also 20-50% länger. (Ivy-Bridge EP 12-13000 s)

pschoefer
23.01.2017, 17:09
Fast alle BOINC-Projekte mit Bezug zum LHC wurden im Laufe des letzten Jahres schon in Subprojekte von LHC@home umgewandelt, jetzt beginnt auch der Umzug von ATLAS@Home auf die gemeinsame Plattform:

Zusammenlegung von ATLAS und LHC@home
Hallo zusammen,

wie ihr vielleicht wisst, arbeiten wir daran, alle mit dem LHC beschäftigten Projekte unter einem gemeinsamen Projekt LHC@home zusammenzufassen. Die Idee ist, einen einzigen Einstiegspunkt anzubieten für jeden, der bei der Forschung am CERN mithelfen möchte.

Wir haben nun eine Beta-Anwendung für ATLAS bei LHC@home aufgesetzt, daher laden wir euch ein, diese auszuprobieren und Rückmeldungen im ATLAS-Forum (https://lhcathome.cern.ch/lhcathome/forum_forum.php?id=93) zu posten. Ihr müsst Beta-Anwendungen in euren Projekteinstellungen aktivieren, um diese WUs zu bekommen.

Derzeit dienen die WUs dort nur als Test und wir verwenden die Ergebnisse nicht, aber bald wird es mit echten WUs weitergehen. Sobald alles dort gut funktioniert, werden wir alle bitten, auf LHC@home umzustellen und werden über das Projekt ATLAS@Home keine Arbeit mehr verschicken.

Punkte gehen nicht verloren! Wir werden alle Punkte, die hier angesammelt wurden, zu LHC@home übertragen, sobald alle verbliebenen Aufgaben beendet sind. Um dies einfacher zu machen, wäre es hilfreich, wenn ihr bei beiden Projekten die gleiche E-Mail-Adresse eingetragen hat, da dies der einzige Weg ist, die Benutzerkonten bei den Projekten zuzuordnen.

Frohes Crunchen weiterhin,
das ATLAS@Home-Team
23.01.2017, 12:55:08 MEZ

Originaltext:

ATLAS/LHC@Home consolidation
Hi all,

As you may know we are working on putting all LHC-related projects under the combined LHC@Home project. The idea is to provide a single entry point for everyone who wants to participate in helping CERN research.

We have now set up a beta app for ATLAS on LHC@Home so we invite you to try it and provide feedback on the ATLAS message board (https://lhcathome.cern.ch/lhcathome/forum_forum.php?id=93). You need to enable beta apps in your project preferences to get these WU.

Currently the WU there are just for tests and we don't use the results but soon we will proceed with real WU. Once everything is working well there we will ask everyone to migrate over to LHC@Home and stop sending work to the ATLAS@Home project.

Credit will not be lost! We will move all the credit accumulated here to LHC@Home once all the remaining tasks are finished. To make this easier it would be very helpful if your email address you register with is the same on both projects, since this is the only way to match the accounts on each project.

Happy continued crunching,
The ATLAS@Home team
23 Jan 2017, 11:55:08 UTC

bossmaniac
25.02.2017, 07:30
Hat das auch schonmal jemand erlebt? Ich merkte das beim meinem PC furtbar die Festplatte ratterte, bis mir aufgefallen ist das Atlas mehrere VMs auf hatte die meine 16 gig verbraten hatten und er also heftigst schubweise am auslagern war.

HJL
25.02.2017, 08:59
Hat das auch schonmal jemand erlebt? Ich merkte das beim meinem PC furtbar die Festplatte ratterte, bis mir aufgefallen ist das Atlas mehrere VMs auf hatte die meine 16 gig verbraten hatten und er also heftigst schubweise am auslagern war.

jep, direkt nach der Umstellung auf mehrere WUs - ich hatte Atlas damals auf 3 Rechnern laufen, einer hat neu gestartet (von sich aus), ein weiterer lief zwar noch, war aber kaum noch zu gebrauchen, hab ihn dann abgewürgt.., nur der 3. Rechner mit 32 GB RAM hat "normal" weitergerechnet (12VMs/ 30 von 32 GB RAM belegt!!) - seit dem bin ich allerdings nicht mehr dazu gekommen mal wieder einige WUs zu rechnen ...

:x) hl

pschoefer
22.03.2017, 17:23
Die Testphase nach der Ankündigung der Zusammenführung von ATLAS@Home und LHC@home (https://www.seti-germany.de/forum/content/492-ATLAS-Home-Verschmelzung-mit-LHC-home-wird-vorbereitet) ist nun abgeschlossen. Über LHC@home werden nun ATLAS-WUs im Produktivbetrieb verschickt, während das alte ATLAS@Home jetzt leerläuft.

ATLAS/LHC-Zusammenlegung wird abgeschlossen
Hallo zusammen,

nach einigen Monaten ausführlichen Testens sind wir nun bereit, den Umzug zu LHC@home (https://lhcathome.cern.ch/) abzuschließen! Die ATLAS-Anwendung ist nun nicht mehr im Beta-Status und wir ermutigen euch, mit dem Crunchen von ATLAS-Aufgaben bei LHC@home zu beginnen. Wir planen keine weiteren Aufgaben über ATLAS@Home zu verteilen.

Wie schon zuvor gesagt, gehen keine Credits verloren! Wer werden alle hier erarbeiteten Credits zu LHC@home umziehen, sobald alle ausstehenden Aufgaben beendet sind. Um das zu erleichtern. wäre es sehr hilfreich, wenn ihr bei beiden Projekten mit der gleichen E-Mail-Adresse registriert seid, da dies die einzige Möglichkeit ist, zusammenpassende Accounts zu finden.

In den LHC-Projekteinstellungen könnt ihr auswählen, welche Anwendungen ihr laufen lassen wollt; wenn ihr also nur ATLAS crunchen möchtet, wählt dort nur ATLAS aus.

Es gibt eine aktualisierte Version von Yetis Checkliste (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4161), bitte überprüft die dortigen Punkte, wenn ihr Probleme habt. Es gibt auch ein eigenes Forum (https://lhcathome.cern.ch/lhcathome/forum_forum.php?id=93) für ATLAS.

Danke für euer Crunchen bei ATLAS@Home über die Jahre und wir freuen uns auf euer Weitercrunchen bei LHC@home!
21.03.2017, 10:00:17 MEZ

Originaltext:

ATLAS/LHC consolidation is ready
Hi all,

After several months of extensive testing, we are now ready to complete the move to LHC@Home (https://lhcathome.cern.ch/)! The ATLAS app is now out of beta so we encourage you to start crunching ATLAS tasks on LHC. We do not plan to submit any more tasks to ATLAS@Home.

As stated earlier, credit will not be lost! We will move all the credit accumulated here to LHC@Home once all the remaining tasks are finished. To make this easier it would be very helpful if your email address you register with is the same on both projects, since this is the only way to match the accounts on each project.

In the LHC project preferences you can select which apps to run, so if you want to only run ATLAS then check the ATLAS box only.

There is an updated version of Yeti's checklist (https://lhcathome.cern.ch/lhcathome/forum_thread.php?id=4161) available, so please check this if you experience problems. There is also a dedicated message board (https://lhcathome.cern.ch/lhcathome/forum_forum.php?id=93) for ATLAS.

Thank you for your crunching on ATLAS@Home over the years and we look forward to continued crunching on LHC!
21 Mar 2017, 9:00:17 UTC

pschoefer
12.08.2017, 11:47
Nachdem dies schon beim Testprojekt erprobt wurde, gibt es nun auch beim Hauptprojekt die Möglichkeit, ATLAS-Aufgaben auf Linux-Rechnern auch ohne VirtualBox zu berechnen. Dazu muss in den Projekteinstellungen (https://lhcathome.cern.ch/lhcathome/prefs.php?subset=project) die Ausführung von Testanwendungen erlaubt und natürlich das Subprojekt ATLAS Simulation ausgewählt sein, außerdem muss die zusätzliche Software installiert sein, die normalerweise in der vbox installiert ist. Erfolgreich getestet wurde das bisher auf zwei Linux-Distributionen, weitere könnten funktionieren, sofern sich alles korrekt installieren lässt.

Neue Version der ATLAS-Anwendung für Linux-Rechner veröffentlicht
Wir haben heute eine neue Version der ATLAS-Anwendung veröffentlicht, 2.41 für die Plattform x86_64-pc-linux-gnu.
Neu an dieser Version ist:
1. Als Betriebssystem wird Scientific Linux 6 oder Cent OS 7 vorausgesetzt.
2. Statt VirtualBox werden CVMFS (http://cernvm.cern.ch/portal/filesystem) und Singularity (http://singularity.lbl.gov/) zum Ausführen der ATLAS-Aufgaben benötigt.
3. Sie ist wegen der Vermeidung der Benutzung von VirtualBox effizienter.
Derzeit ist diese Version als Beta-Version eingerichtet.

Für diejenigen, die es ausprobieren wollen, bieten wir hier (http://atlasathome.cern.ch/boinc_conf/install_cvmfs_sin.sh) ein Script zur Installation von allen Abhängigkeiten inklusive CVMFS und Singularity an.

Probiert es aus, wenn ihr Interesse habt!
10.08.2017, 12:04:25 MEZ

Originaltext:

New ATLAS app version released for Linux hosts
We released a new version of the ATLAS app today, 2.41 for the x86_64-pc-linux-gnu platform.
The new features of this version include:
1. It requires the host OS to be either Scentific Linux 6 or Cent OS 7.
2. It require CVMFS (http://cernvm.cern.ch/portal/filesystem) and Singularity (http://singularity.lbl.gov/) instead of Virtualbox to run the ATLAS jobs.
3. It is more efficient, as the avoidance of using Virtualbox.
Currently, this version is set to beta version.

For people who want to try it out,we provide a script to install everything including CVMFS, singularity here (http://atlasathome.cern.ch/boinc_conf/install_cvmfs_sin.sh),

Try it if you are interested!
10 Aug 2017, 11:04:25 UTC

taurec
15.08.2017, 18:53
Ich poste das mal hier, obwohl es vielleicht im Wissenschaftsforum besser aufgehoben wäre. Wenn's nicht passt bitte verschieben:
Entdeckung am CERN bei ATLAS@HOME:
https://www.heise.de/newsticker/meldung/CERN-Experiment-beobachtet-elastische-Licht-Licht-Streuung-3801678.html