Projekt "Atlas@home"
Habe heute vom Projekt folgende News erhalten:
Das Projekt ist umgezogen unter das Dach des CERN und unter neuer HP http://atlasathome.cern.ch erreichbar.Thanks for your valuable support to the ATLAS@home project. The ATLAS@home project officially moves its server from IHEP to CERN, thus the current server( http://gilda117.ihep.ac.cn ) is fully replaced by a new server at CERN ( http://atlasathome.cern.ch ). If you would like to continue to support ATLAS@home, please connect to the new URL http://atlasathome.cern.ch !
Again your contribution to the project is highly appreciated!
ATLAS@home Project
To opt out of future emails from REPLACE WITH PROJECT NAME, please edit your project preferences at http://gilda117.ihep.ac.cn/ATLAS/pre...subset=project
Zumindest bei mir wurde das Account nicht mit rübergezogen (hatte aber keine Credits, da ich bisher nur Fehler produziert habe).
Ergebnis 1 bis 25 von 78
Thema: ATLAS@home
-
- Titel
- Administrator
- Bewertung
- Registriert am
- 16.01.2011
- Ort
- Leipzig
- Beiträge
- 2.795
- Danke
69
66
Anzahl Awards: 2420.06.2014, 12:32 #1ATLAS@home
-
26.06.2014, 16:10 #2
Bei ATLAS wurden heute auch die Credits des alten Projekts auf das neue übertragen (zumindest bei mir).
-
26.06.2014, 16:31 #3To bodly crunch what no man has crunched before...
http://stats.free-dc.org/cpidtagb.ph...heme=14&cols=3
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 11.08.2008
- Ort
- Nicht in Neverland - am Niederrhein
- Beiträge
- 3.426
- Danke
234
78
Anzahl Awards: 2230.06.2014, 22:56 #4Ich habe sechs Atlas Wu´s am laufen.......und laufen.......und laufen....mittlerweile zwischen 25 und 98 Stunden. Alle zwischen 99,191 % und 100 %.....und sie laufen und laufen.......ich weiss nicht ob da was wrong ist ? Die mit 100 % zeigen dies mittlerweile seit über 24 Stunden
Home is where the heart lies, but if the heart lies
Where is home, is where the heart lies, but where is home?
Marillion - Charting the Single - 1983
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 08.07.2007
- Ort
- Kölle am Rhing
- Beiträge
- 3.213
- Danke
20
5
Anzahl Awards: 2101.07.2014, 07:28 #5Bei mir waren die WUs normalerweise in ca.2-3 Stunden durch. Die Creditausbeute ist seit ein paar Tagen mit 8-15 Credits je WU so gering, dass ich erstmal von diesem Projekt Abstand halte.
Was die WUs ausbremst sind die vielen Snapshots der VMs, die die Platte ständig rattern lassen. Vielleicht bremsen die bei Dir alles aus?
-
- Titel
- Esel
- Bewertung
- Registriert am
- 07.07.2007
- Ort
- Granada
- Beiträge
- 17.179
- Danke
163
1.826
Anzahl Awards: 1602.07.2014, 16:26 #6Gruß
Patrick
"Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 11.08.2008
- Ort
- Nicht in Neverland - am Niederrhein
- Beiträge
- 3.426
- Danke
234
78
Anzahl Awards: 2206.07.2014, 15:17 #7Hallo zusammen, ich begreifs langsam nicht mehr.....zuerst haut mir das Projekt alle sechs WU´s die allesamt über 100 Stunden hatten total ins Nirvana, jetzt mittlerweile wieder eine WU über 100 und die anderen zwischen 24 und 40 Stunden Laufzeit allesamt bei 100 %.......ist ja OK wenn ein Projekt umgestellt wird und einiges nicht mehr funzt....aber so verliere ich langsam die Lust wenn ich meine Rechenzeit jedesmal ins blaue blase.....
Home is where the heart lies, but if the heart lies
Where is home, is where the heart lies, but where is home?
Marillion - Charting the Single - 1983
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 08.07.2007
- Ort
- Kölle am Rhing
- Beiträge
- 3.213
- Danke
20
5
Anzahl Awards: 2106.07.2014, 16:21 #8Mir gefällt das Projekt Atlas@Home auch nicht mehr so richtig. Die WUs der letzten Tagen liefen zwar einwandfrei in 1-2 Stunden durch, aber der Ertrag ist extrem gering für den Aufwand.
Früher wurden die WUs scheinbar nach der Bruttozeit berechnet, da habe ich schnell rund 75K Credits zusammenbekommen, jetzt wird die Netto CPU-Zeit genommen und die Credits tröpfeln nur noch. Da das Projekt extrem Netzwerkintensiv ist - je WU 70 MB und manchmal WUs mit 1,2 GB - wird das DSL schon kräftig belastet, aber auch während der Laufzeit entsteht ein beachtlicher Traffic. Mein 6 Mbit DSL ist dabei ständig am Limit. Bekomme ich den Download einer 1,2 GB WU mit breche ich diese ab und es wird dann eine 70 MB WU geladen.
Weiterhin entsteht durch die häufigen Snapshots in der VM eine hohe Last auf den Festplatten wenn viele WUs gleichzeitig laufen, eine Platte ist durch die Dauerbelastung bereits hinüber. Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.
Mein Ziel 100K zu erreichen wird immer schwieriger, 9000 fehlen noch.
-
15.11.2014, 23:04 #9
Hallo Cruncher von Seti-Germany,
Atlas benötigt Eure Hilfe, man hat aktuell einen Haufen WUs und braucht diese möglichst schnell abgearbeitet.
Die WUs haben inzwischen den nachträglichen Download deutlich verringert, ein deutlicher Teil der benötigten Daten wird inzwischen direkt mit dem WU-Download mitgeliefert.
Und wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt, werden auch nicht mehr so viele Snapshots erzeugt.
Ach ja, als Team seit Ihr gerade auf Platz 25, die kleinen Nordlichter auf Platz 2 ? Wollt Ihr das so stehen lassen ?
Hier das Original-Post:
Request for more crunching in next week or two
The current set of ATLAS@Home work units are quite important to the experiment and would like to get them finished as quickly as possible. Therefore if you have more CPU to donate to ATLAS@Home over the next couple of weeks to crunch through these WU it would be very much appreciated! There are currently around 7000 WU left to crunch in this set and we will provide regular updates of how many are left to go.
Many of the server-side scalability issues have been addressed and we are confident that we can handle more concurrent WU at this time. However the vboxwrapper is still having issues in some cases, so if you notice that you have WUs that are stalled or WUs that consume very small amount of cpu for more than 30 minutes, please abort them since they will most likely not succeed. The expected cputime usage of the WUs varies from 6 to 36 hour, so please ignore the WU progress as reported by the client.
Thank you in advance for your help! 15 Nov 2014, 14:38:35 UTC
Herzliche Grüße
Yeti
-
01.01.2015, 11:55 #10
Wollte gerne auch diese VM VirtualBox-Geschichte ausprobieren und auch die anderen beiden Projekte vom CERN außer LHC@home versuchen.
Habe also auf zwei 64Bit-Systemen(Windows), einmal mit 4GB und einmal mit 8GB RAM, die neueste Boinc-Version inkl. VirtualBox aufgespielt. Kam aber bisher nur Schrott heraus bzw. beide PCs waren nach einigen Stunden so total "eingefroreren", dass nichts mehr ging als vom Strom trennen und neu starten. Und das, obwohl bei beiden PCs im Boinc-Manager eingetragen war: Nutze höchstens 80% CPU time und nutze höchstens 75% Arbeitsspeicher. Aber ich habe so das 'Gefühl', diese VirtualBoxen interessiert das nicht sonderlich, oder?
Nun meine Fragen:
Daher rechne ich aktuell je Computer nur noch bis zu maximal 2 WUs gleichzeitig.
Muss ich das (wo?) in BoincManager einstellen? Finde da nichts. Beim Projekt auch nicht. Im Oracle-Programm?
Ist damit gemeint, nur eine (wär mir jetzt erstmal am liebsten) oder max. zwei Atlas-WUs und auch sonst nix CPU-mäßiges oder kann ich ganz andere Projekte dann wohl doch noch neben her laufen haben?
wenn Ihr den Konfigurationspunkt: "Write to Disc every ..." hoch setzt
Lieben Dank schon mal für Eure Hilfe!
-
01.01.2015, 12:07 #11
Als erstes prüfe bitte, welche VirtualBox-Version du installiert hast, es sollte auf alle Fälle "nur" die Version 4.3.12 sein, neuere Versionen sind kritisch und funktionieren unter Umständen nicht richtig.
Hast du schon mal irgend etwas mit Virtualisierung laufen gehabt ? Wenn nein, solltest du sicherstellen, daß im BIOS die Hardwarevirtualisierung aktiviert ist. Nach Aktivierung dieses Settings muß der PC ausgeschaltet werden, ein Warmstart lädt den neuen Parameter nicht.
Dann würde ich sicherstellen, daß du nur 1 WU rechnest, das machst du am besten zunächst per Hand, indem du weitere runtergeladene WUs im BOINC-Manager einfach suspendeds.
Jede WU benötigt aktuell etwas mehr als 2 GB Hauptspeicher.
Wenn du also ein System mit 4 GB verwendest und das Setting "Arbeitsspeicher: wenn Computer benutzt wird, nutze höchstens" 50% hast, kann Atlas zeitweise nur 2,0 GB verwenden, braucht aber 2,1 GB und dann hängt es fest und / oder fängt das swappen an und dann wird dein PC unbenutzbar, aber es wird auch nichts sinnvolles mehr getan
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 30.06.2008
- Ort
- Allerorten
- Beiträge
- 4.508
- Danke
230
55
Anzahl Awards: 1701.01.2015, 12:29 #12Ich habe mir auf meiner 3 GHz-Kiste mit 6 GB RAM eine app_config.xml ins Projektverzeichnis /var/lib/boinc-client/projects/atlasathome.cern.ch gebastelt:
<app_config>
<app>
<name>ATLAS</name>
<max_concurrent>1</max_concurrent>
</app>
</app_config>
und mit max_concurrent 1 rechnet die Kiste auch nur eine ATLAS-WU.
Unter Windows musst du die Datei im entsprechenden Projektordner speichern.
Viel Erfolg
Edith sagt, die anderen Hinweise von Yeti sind natürlich trotzdem zu beachten ;-)Geändert von taurec (01.01.2015 um 13:00 Uhr)
Ciaotaurec
-
01.01.2015, 14:55 #13
Vielen Dank für Eure Hilfe!
es sollte auf alle Fälle "nur" die Version 4.3.12 sein
im BIOS die Hardwarevirtualisierung aktiviert
Wenn du also ein System mit 4 GB verwendest...
Auf dem PC mit 8GB RAM versuche ich es weiter. Dazu habe ich erstmal alles wieder gelöscht und nochmals neu eingerichtet, diesmal aber nur VirtualLHC aktiviert. Ich warte nun erst einmal ab, ob das korrekte Ergebnisse produziert und kann dann ja im positiven Fall später auch noch Atlas probieren.
Auch wenn ich jetzt dadurch etwas im falschen Thread binnoch drei kurze Fragen bitte:
1.eine app_config.xml ins Projektverzeichnis
2. Weil ich dachte, eine <name>-Definition stände vielleicht in einer anderen dort liegenden xml-Datei, habe ich in den Ordner schon reingeschaut, aber da liegt nur eine (in der <name> nicht vorkommt) und die lautet:
<?xml version="1.0"?>
- <vbox_job>
<os_name>Linux26</os_name>
<memory_size_mb>256</memory_size_mb>
<enable_network/>
<enable_floppyio/>
<enable_remotedesktop/>
<enable_cern_dataformat/>
<job_duration>86400</job_duration>
<pf_guest_port>80</pf_guest_port>
<pf_host_port>7859</pf_host_port>
</vobx_job>,aber vielleicht braucht's das nicht.
3. Was trage ich am besten im Boinc-Manager im 3. Reiter unter "Schreibe auf Festplatte höchstens alle ... Sekunden" ein, wenn ich die Festplatte doch ein wenig schonen will (der PC läuft im Allgemeinen durch, ich nehme also an, ich kann da eine ziemlich hohe Sekundezahl eintragen, jede Stunde einmal, also 3600? Und die VirtualBox macht das dann tatsächlich so, wie es im BoincManager steht oder muss ich das Zusatzprogramm extra dafür anweisen?
-
01.01.2015, 17:44 #14
Ich schliesse mich hier an und habe noch zusätzliche Fragen.
Ich habe 8 GB Ram; habe vor vorsichtshalber auf ein neues 16 GB Corsair Dominator upzugraden,
da pro WU ja wohl 2 GB draufgehen.
Muss ich Boinc neu installieren mit der VM?
Oder kann ich die VM mit dem Extension Pack runterladen wie in unserer Wiki beschrieben?
Muss dann in der VM Boinc für Linux installieren und los gehts?
evtl. die VM auf einer eigenen Festplatte laufen zu lassen?
( zur Zeit ist nämlich Boinc bei mir auf einer SSD und das Datenverzeichnes auf einer HDD )
würde dann eine dritte HDD anhängen
Hab null Erfahrung mit VM - der einfachste Weg wäre mir liebLG Timo
[my Badges] >>KIVA Lending<<
Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans
-
01.01.2015, 17:48 #15
Inya, app_config für vLHC:
<app_config>
<app>
<name>vboxwrapper</name>
<max_concurrent>1</max_concurrent>
</app>
<app_version>
<app_name>vboxwrapper</app_name>
<plan_class>vbox64</plan_class>
<avg_ncpus>1.0</avg_ncpus>
</app_version>
</app_config>
Die 3600 kannst du eintragen, das funzt dann. Allerdings weiß ich nicht, inwieweit vLHC überhaupt Snapshots erzeugt
Hinzugefügter Post:
Ach so, ich seh gerade, die avg_ncpus solltest du auf 1.0 setzenGeändert von Yeti (01.01.2015 um 17:49 Uhr) Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!
-
- Titel
- ist hier zu Hause
- Bewertung
- Registriert am
- 30.06.2008
- Ort
- Allerorten
- Beiträge
- 4.508
- Danke
230
55
Anzahl Awards: 1701.01.2015, 17:53 #16Servus,
ich kann hier zwar nur von Linux reden; und für ATLAS, vLHC habe ich noch nicht getestet. Es sollte reichen, wenn du das VirtualBox-Paket einfach nur installierst. Die WU die heruntergeladen wird, ist praktisch eine virtuelle Maschine (Download ca. 114 MB pro WU bei mir).
Du brauchst da nicht zusätzlich eine VM aufsetzen.Ciaotaurec
-
- Titel
- Administrator
- Bewertung
- Registriert am
- 21.06.2007
- Beiträge
- 7.721
- Danke
496
601
Anzahl Awards: 2407.01.2015, 23:16 #17Ich habe auf meinen Rechnern BOINC 7.2.42 OHNE die VirtualBox Implementierung, sondern VirtualBox einzeln installiert mit Version 4.2.16 und vLHC bzw. ATLAS rechnet einwandfrei. Allerdings lasse ich höchstens 2 WUs parallel berechnen und halte die anderen manuell an, wenn ich mehr bekommen habe.
(Die Kisten haben aber jeweils 16 GB RAM.)
-
- Titel
- Esel
- Bewertung
- Registriert am
- 07.07.2007
- Ort
- Granada
- Beiträge
- 17.179
- Danke
163
1.826
Anzahl Awards: 1607.06.2015, 12:00 #18Auch an diesem Wochenende habe ich mir einen Projektartikel im Wiki vorgenommen, diesmal ATLAS@Home; in weiten Teilen ist es eine Linksammlung geworden.
Erwähnt sei auch ein Beitrag zu den aktuellen WUs aus den Projektnews von vergangenem Mittwoch:
Zitat von http://atlasathome.cern.ch/
Zitat von auf Deutsch
Geändert von pschoefer (07.06.2015 um 12:16 Uhr)
Gruß
Patrick
"Zusammenkommen ist ein Beginn, Zusammenbleiben ein Fortschritt, Zusammenarbeiten ein Erfolg." [H. Ford]
-
- Titel
- Gold Member
- Bewertung
- Registriert am
- 19.12.2009
- Ort
- weit im Süden
- Beiträge
- 2.215
- Danke
62
24
Anzahl Awards: 1702.07.2015, 21:48 #19bei ATLAS@Home gibt's dann jetzt auch diverse Badges
https://atlasphysathome.web.cern.ch/...d-model-badges
hl
hl
-
- Titel
- Esel
- Bewertung
- Registriert am
- 07.07.2007
- Ort
- Granada
- Beiträge
- 17.179
- Danke
163
1.826
Anzahl Awards: 16
-
19.02.2016, 12:02 #21
Hab jetzt auch extra die VM drauf Vers. 5.0.14
Atlas@home hinzugefügt und los ging es....
18 ungültig und 1 Fehler
Status: Alle (40) · In Bearbeitung (16) · Überprüfung ausstehend (0) · Überprüfung ohne Ergebnis (0) · Gültig (5) · Ungültig (18) · Fehler (1)
Das mit dem Ram hab ich kapiert, ist sonst noch auf was zu achten? Ist ja nicht normal mit
den ganzen UngültigkramLG Timo
[my Badges] >>KIVA Lending<<
Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans
-
19.02.2016, 16:03 #22
Da bist du leider nicht alleine.
State: All (93) · In progress (18) · Validation pending (0) · Validation inconclusive (0) · Valid (47) · Invalid (14) · Error (14)
Diese Aufgaben verbrauchen nicht nur bis zu 1,9 GB Arbeitsspeicher sondern bis zu 2,6 GB. Bei 9 Aufgaben parallel wurden bis zu 23 GB benötigt. Soll heißen, 8 Aufgaben benötigen mehr als 16 GB Ram.
Wieviele Aufgaben lässt du parallel laufen ?
gruß desktop64
-
19.02.2016, 17:55 #23
Am Anfang waren es 6, dann 4, dann 2.....
Hatte es schnell mit dem RAM bemerkt.
Jetzt liegen noch zu bearbeitende WU´s in meinem Boinc-Manager rum mit dem Vermerk "verdrängt"... heeee? Meine CPU macht gerade nichts ( ok. bissl für die SETI WU´s , daß sind aber gerade mal 2 - 5% meiner Power)
Kompliziert, komisch..LG Timo
[my Badges] >>KIVA Lending<<
Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans
-
- Titel
- BOINC Maniac
- Bewertung
- Registriert am
- 02.03.2010
- Ort
- Magdeburg
- Beiträge
- 692
- Danke
52
3
-
19.02.2016, 18:37 #25
mmhhhhh.. 96 GB ram und.... sabber sabber... 24 Kerne HT
haaaben wolln
EDIT:
sooo. Folgende Änderung vorgenommen: Mit app_config erstmal den Ram-schwachen Laptop auf eine WU geprügelt und den 16 Gig-Rechner auf 3 WU´s max.,
sowie die hier im Thread empfohlene VM 4.2.16 gedowngraded ... Ergebnisse folgen.... (Ram-kauf folgt auch)
Geändert von iz-germany-timo (19.02.2016 um 21:55 Uhr)
LG Timo
[my Badges] >>KIVA Lending<<
Angemeldet 6.1.2015 // 2015 = 48 Loans // 2016 = 118 Loans // 2017 = 194 Loans // 2018 = 403 Loans // 2019 = xxx Loans
Single Sign On provided by vBSSO