Seite 1 von 6 1 2 3 ... Letzte
Ergebnis 1 bis 25 von 132

  1. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #1

    Standard SETI@home Enhanced auf nVIDIA-Grafikkarten (kein BETA-Test)

    Seit 17 Dec 2008 16:54:42 UTC kann man SETI@home Enhanced auf nVIDIA-Grafikkarten crunchen! (Im Hauptprojekt)

    KEIN BETA-Test!


    SETI@home

    Run SETI@home on your NVIDIA GPU

    SETI@home CUDA FAQ

    Fragen und Antworten : CUDA

    Diskussionsforen : Number crunching


    NVIDIA CUDA Technology Dramatically Advances The Pace Of Scientific Research
    Zitat:
    SETI@Home
    Researchers in the scientific field of SETI received a massive increase in computing power today, when NVIDIA and BOINC released an optimized client that will allow SETI@home to be accelerated on GeForce GPUs. SETI@home, the largest BOINC project with nearly 200,000 active users, searches for extra terrestrial intelligence by using radio telescopes to listen for narrow-bandwidth radio signals from space. The performance of a GeForce GTX 280 GPU running SETI@ is nearly 2 times faster than the fastest consumer multicore CPU (3.2GHz Intel Core i7 965) and almost 10 times faster than an average dual core consumer CPU (2.66 GHz AMD Phenom 9950).*


    Dann viel Spaß.. und berichtet mal Eure Erfahrungen!


    Wie meinen die das wohl?
    Also ne GTX 280 wird einen doppelt so großen RAC bekommen wie ein Core i7 965 ?
    Oder meinen die nur einen Core vom 965 ?

    Also, nachdem ich den * gefunden und gelesen hab, meinen die nur einen Core einer CPU.


    * Based on a consistent and reproducible SETI@home workload. Time-to-compute is measured and lower time is better. NVIDIA® GeForce® GTX 280-based system processes workload on the NVIDIA GPU and is based on an NVIDIA nForce® 780i SLI™-based motherboard, NVIDIA GTX 280 GPU, Intel Core i7 965 CPU, 2GB DDR2 DRAM and processes the workload in 391 seconds. “Fastest consumer multicore CPU-based system” processes the entire workload on CPU and is based on an ATI Radeon HD4870 GPU, Intel x58-based motherboard, Intel Core i7 965, 3GB DDR3 DRAM and processes the workload in 670 seconds. “Average dual core CPU-based system” processes the entire workload on CPU and is based on an ATI Radeon HD4870 GPU, AMD Phenom 9950 CPU (Dual Core 2.66GHz) 2GB DDR2 DRAM and processes the workload in 3,777 seconds.
    Geändert von Dirk (17.12.2008 um 20:55 Uhr)
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]

  2. Die folgenden Benutzer haben sich bei Dirk bedankt für diesen nützlichen Beitrag:

    Beorn (17.12.2008)

  3. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #2

    Standard

    Siehe mein Post hier.

    Kann es sein, dass Nvidia da mit einem Scheck gewedelt hat? duck und wech...

    akl


  4. Titel
    Neuling

    Bewertung

    Registriert am
    17.12.2008

    Beiträge
    5

    Danke
    Danke gesagt 0   Danke erhalten 0

    #3

    Standard

    Also ich habe hier nen Quad 2,4 mit GeForce8600 GT 256 MB.
    Bei mir ist CUDA langsamer als die CPU Clients.
    Eine CUDA WU braucht bei mir über 30 Minuten.

    Ist das normal?


  5. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #4

    Standard

    Zitat Zitat von AgentMax Beitrag anzeigen
    Also ich habe hier nen Quad 2,4 mit GeForce8600 GT 256 MB.
    Bei mir ist CUDA langsamer als die CPU Clients.
    Eine CUDA WU braucht bei mir über 30 Minuten.

    Ist das normal?
    Die haben wohl nur die normalen Anwendungen getestet.
    Nicht die optimierte für die CPU..

    Und ne 8600er ist auch langsamer als die GTX 280..

    Aber.. wenn du Deinen Q6600 @ 2.4 GHz hast, brauchst Du für ne 'normale' WU bestimmt so mind. eine Std., oder? Dann bist ja auch doppelt so schnell..
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]


  6. Titel
    Neuling

    Bewertung

    Registriert am
    17.12.2008

    Beiträge
    5

    Danke
    Danke gesagt 0   Danke erhalten 0

    #5

    Standard

    Nee, mit optimiertem Client macht meiner in knapp 20 Minuten ne S@H Wu durch.


  7. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #6

    Standard

    Zitat Zitat von AgentMax Beitrag anzeigen
    Nee, mit optimiertem Client macht meiner in knapp 20 Minuten ne S@H Wu durch.
    Es kommt ja auch auf den AR-Wert einer WU an..
    [WU True angle range]

    Es gibt WUs die sind in 15 Min., andere in 1 Std. 15 Min. auf meinem QX6700 durch..


    Schau doch mal nach den Werten in Deiner Übersicht in Berkeley und berichte mal..
    Geändert von Dirk (17.12.2008 um 21:18 Uhr)
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]

  8. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #7

    Standard

    Zitat Zitat von AgentMax Beitrag anzeigen
    Bei mir ist CUDA langsamer als die CPU Clients.
    Eine CUDA WU braucht bei mir über 30 Minuten.

    Ist das normal?
    Ich denke schon. Da eine 8600 GT nur 32 Shader hat (gegenüber 240 bei einer GTX280), die noch dazu niedriger getaktet sein dürften, ist wohl kaum mehr zu erwarten. Bei GPUGRID wird sogar von dieser Karte abgeraten - aber die haben auch eine sehr kurze Deadline.

    Ich denke mal wer 'ne schnelle CPU und ein langsame Graka hat, für den lohnt sich das nicht, zumal SETI für CUDA praktisch einen Kern benötigt, der dann für anderes wegfällt. Vielleicht sieht das bei anderen Projekten oder bei neuen Versionen der Anwendung aber schon anders aus.

    Gruß
    akl

    EDIT:
    Ich habe mich mal angemeldet mit meinem Rechner mit GTX260 und prompt die CUDA Anwendung (die gleiche wie bei Beta) und 53 workunits bekommen, davon 6 mit Deadline 10.01., weitere 6 mit Deadline 07.01. und der Rest mit Deadline 24.12. . Bekommt man da eigentlich gleich seine Credits oder muss man auch so lange warten wie bei SETI Beta? Ich hoffe mal nein, denn ich sehe das Quorum und die Flügelleute hier.

    Lustig ist die Fehlermeldung, nachdem ich die 53 Stück bekommen hatte, das sorgt bestimmt für Verwirrung


    17.12.2008 21:55:17|SETI@home|Sending scheduler request: To fetch work. Requesting 219389 seconds of work, reporting 0 completed tasks
    17.12.2008 21:55:48|SETI@home|Scheduler request completed: got 0 new tasks
    17.12.2008 21:55:48|SETI@home|Message from server: No work sent
    17.12.2008 21:55:48|SETI@home|Message from server: SETI@home Enhanced is not available for your type of computer.


    Astropulse habe ich übrigens in den Preferenzen ausgeschaltet, so dass es auf jeden Fall nur Arbeit für die GPU gibt.

    Happy Vollgascrunching!
    akl
    Geändert von Beorn (17.12.2008 um 21:17 Uhr)

  9. Avatar von aendgraend
    Titel
    Administrator

    Bewertung

    Registriert am
    21.06.2007

    Beiträge
    7.506

    Danke
    Danke gesagt 465   Danke erhalten 578

    #8

    Standard

    AgentMax bei SETI.Germany im Forum - das ich das noch erleben durfte Welcome on Board Max


  10. Titel
    Neuling

    Bewertung

    Registriert am
    17.12.2008

    Beiträge
    5

    Danke
    Danke gesagt 0   Danke erhalten 0

    #9

    Standard

    He, ich war früher schon hier
    Allerdings noch im alten Board.
    Und die Accounts wurden anscheinend nicht transferiert.
    Sonst hätte ich mehr Beiträge.


  11. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #10

    Standard

    @ akl

    Normalerweise werden bei SETI@home die WUs mind. an zwei versch. PCs gesendet.

    Und wenn beide Resultate eingetroffen sind, bekommst Du auch Deine Credits..
    Aber wenn die Resultate nicht gleich sind, wird noch eine WU an einen dritten PC gesendet.. usw. ..


    @ alle

    Wer SETI@home-GPU-crunched.. posted doch mal Eure PCs.. [Links]
    Das man mal die Zeiten sehen/vergleichen kann..
    Geändert von Dirk (17.12.2008 um 21:28 Uhr)
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]

  12. Avatar von Kalessin
    Titel
    Gold Member

    Bewertung

    Registriert am
    03.07.2007

    Ort
    In der Stadt mit den meisten Brücken Europas

    Beiträge
    1.597

    Danke
    Danke gesagt 22   Danke erhalten 109

    #11

    Lächeln

    Ich habe mich mit meinem einen Rechner auch mal da reingestürzt. Und ein wenig gelesen.

    Wenn eine app_info Datei da ist, wird nicht für die Cuda geladen. Wenn für die Cuda geladen wird, dann werden keine anderen WUs ausgegeben - nur Cudas.
    Keine Ahnung, ob man das austricksen kann mit einem Wechsel der Anwesenheit der app_info.
    Ich bin ja auch zufrieden, dass ich die Kerne nicht mit Seti belegt bekomme.
    Dragons can fly, because they don't fit into pirate ships! Aaaarrrrggghh!

  13. Avatar von aendgraend
    Titel
    Administrator

    Bewertung

    Registriert am
    21.06.2007

    Beiträge
    7.506

    Danke
    Danke gesagt 465   Danke erhalten 578

    #12

    Standard

    Stimmt, wusst ich's doch.

    AgentMax, 348 Posts, Senior Member, joined 20. Oktober 2001 - 22:20
    wird aber jetz OT

  14. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #13

    Standard

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Und wenn beide Resultate eingetroffen sind, bekommst Du auch Deine Credits..
    Aber wenn die Resultate nicht gleich sind, wird noch eine WU an einen dritten PC gesendet.. usw. ..
    Ok, also wie bisher auch bei den CPU-gebundenen Anwendungen, das klingt gut. (Ist schon eine Weile her, das ich bei SETI Main was abgeliefert habe.)


    @ alle

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Wer SETI@home-GPU-crunched.. posted doch mal Eure PCs.. [Links]
    Das man mal die Zeiten sehen/vergleichen kann..
    Ich fürchte, das bringt nicht viel, denn wie bei SETI Beta wird wieder nur die CPU Zeit drinne stehen und die sagt nicht viel aus (oder besser gesagt gar nichts). Solange man nicht wie bei GPUGRID auch die Berechnungszeit auf der Grafikkarte angibt, die wohl in etwa der realen Zeit entspricht, kann man nicht viel vergleichen anhand der Ergebnisse. Eric Korpela hat aber im Beta Forum schon angemerkt, dass man eine ähnliche Angabe im Ergebnis wie bei GPUGRID auch bei SETI CUDA ergänzen will.

    Hier ist meine Kiste, die hat aber im Moment noch zwei GPUGRID workunits in der Mangel.

    Gruß
    akl


    Hinzugefügter Post:

    Zitat Zitat von Kalessin Beitrag anzeigen
    Wenn für die Cuda geladen wird, dann werden keine anderen WUs ausgegeben - nur Cudas.
    Habe ich auch so verstanden. Wobei die workunits für CUDA wohl exakt die gleichen wie für die CPU-gebundenen Anwendungen sind. Es könnte also durchaus passieren, dass in einem Quorum für eine WU Ergebnisse aus GPU- und CPU-Berechnungen auftauchen. Bei Beta haben nämlich einige Leute, die keine kompatible Graka hatten mit einer app_info und 6.03 Seti enhanced workunits gezogen.

    Ich weiß auch bis jetzt noch nicht, ob man Astropulse workunits für die CPU bekommt zusätzlich zu Seti enhanced workunits für die GPU, wenn man das will. Ich will es nicht und hab's daher von vornherein ausgeschaltet.

    Zitat Zitat von Kalessin Beitrag anzeigen
    Keine Ahnung, ob man das austricksen kann mit einem Wechsel der Anwesenheit der app_info.
    Ich habe noch nicht mal einen Plan, wie eine app_info für GPU und CPU aussehen müßte.

    Zitat Zitat von Kalessin Beitrag anzeigen
    Ich bin ja auch zufrieden, dass ich die Kerne nicht mit Seti belegt bekomme.
    Genau, die sollen gefälligst was anderes schaffen, z.B. Docking.

    Gruß
    akl
    Geändert von Beorn (17.12.2008 um 21:52 Uhr) Grund: Antwort auf eigenen Beitrag innerhalb von 24 Stunden!

  15. Avatar von Kalessin
    Titel
    Gold Member

    Bewertung

    Registriert am
    03.07.2007

    Ort
    In der Stadt mit den meisten Brücken Europas

    Beiträge
    1.597

    Danke
    Danke gesagt 22   Danke erhalten 109

    #14

    Blinzeln

    Zitat Zitat von akl Beitrag anzeigen
    Ich habe noch nicht mal einen Plan, wie eine app_info für GPU und CPU aussehen müßte.
    Na, die bekommst du mit, wenn du eine optimierte Anwendung rechnen lässt. Muss dann in den Project-folder des Projekts. Selber schreiben würde ich die auch nicht. Aber wenn die da ist, dann gibts keine Cuda WUs!
    Dragons can fly, because they don't fit into pirate ships! Aaaarrrrggghh!

  16. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #15

    Standard

    Zitat Zitat von Kalessin Beitrag anzeigen
    Na, die bekommst du mit, wenn du eine optimierte Anwendung rechnen lässt. Muss dann in den Project-folder des Projekts. Selber schreiben würde ich die auch nicht. Aber wenn die da ist, dann gibts keine Cuda WUs!
    Ne, mit normalen app_info.xml hab ich auch gar kein Problem, hab mir selbst schon ein paar gebastelt (für SETI, Einstein, SIMAP). Ich wüßte nur nicht, wie man dort eine CUDA-Anwendung und gleichzeitig eine CPU-Anwendung unterbringt. Aber ein paar schlaue Leute sind da sicher schon dran, wie ich gehört habe, bauen die Lunatics auch schon an Ihrer eigenen CUDA-Anwendung.

    Ciao
    akl


  17. Titel
    Full Member

    Bewertung

    Registriert am
    04.07.2007

    Beiträge
    186

    Danke
    Danke gesagt 12   Danke erhalten 100

    #16

    Standard

    Zitat Zitat von Kalessin Beitrag anzeigen
    Na, die bekommst du mit, wenn du eine optimierte Anwendung rechnen lässt. Muss dann in den Project-folder des Projekts. Selber schreiben würde ich die auch nicht. Aber wenn die da ist, dann gibts keine Cuda WUs!
    das Problem hatte ich mir auch gerade überlegt, mit der App.info, wenn eine da ist gibt es keine CUDA WUs, das ist klar steht ja in der App.info drinne, das er nur die WUs mit der opt App rechnen muss.

    mal sehen was da noch kommt.

    habe übrigens bei meinen testen wieder original AP WUs bekommen, und dann das nächste Problem, wenn man optimierte AP Versionen einsetzt, versucht BOINC die AK-V8 vom Berkeley Server zu ziehen, was ja nicht gehen kann, weil in der TEST Phase die AP WUs auch SetiEnhanced heissen....

    mfg
    Sir Ulli

  18. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #17

    Standard

    Im SETI Forum haben schon einige Leute geschrieben, dass Sie keine Workunits mehr bekommen.

    Hab gerade mal auf zwei Rechnern ohne CUDA-fähige Grafikkarte und mit BM 6.2.19 getestet: ich bekomme sowohl mit app_info.xml und opt. Anwendungen als auch ohne immer noch Workunits (im letzteren Falle lädt der BM einfach die 6.03 aus Berkeley herunter).

    Gruß
    akl

  19. Avatar von Kalessin
    Titel
    Gold Member

    Bewertung

    Registriert am
    03.07.2007

    Ort
    In der Stadt mit den meisten Brücken Europas

    Beiträge
    1.597

    Danke
    Danke gesagt 22   Danke erhalten 109

    #18

    Standard

    Ich habe mal eine kleine Hochrechnung gemacht.
    Ich benötige mit meiner 9800GT ca 7Minuten bei Unterstützung durch einen Kern und bekomme im Höchstfall 14,74 Credits. Das ergibt einen Tagesoutput von ca. 3000 für Cuda plus Kern. Ich bin etwas enttäuscht, bei Gpugrid gibts etwa 5000. Ohne Kernunterstützung benötigen die Seti WUs 34 Minuten. Das wären dann satte 625 Credits am Tag.
    Kommt mir so vor, als hätte gpugrid etwas die Nase vorn.
    Dragons can fly, because they don't fit into pirate ships! Aaaarrrrggghh!


  20. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #19

    Lächeln

    Mal ne kleine Überlegung..


    Ne GTX 280 schafft diese (berühmte) WU in 391 Sek. (Erster Beitrag in diesem Thema)

    -------------------------------
    Ist ne GTX 280 momentan das Schnellste was man bekommen kann? Cores und MHz.
    GPU Engine Specs:Processor Cores 240
    Graphics Clock (MHz) 602 MHz
    Processor Clock (MHz) 1296 MHz
    Texture Fill Rate (billion/sec) 48.2

    Oder würde ne 9800 GX2 nicht schneller sein?
    GPU Engine Specs:Processor Cores 256 (128 per GPU)
    Graphics Clock (MHz) 600 MHz
    Processor Clock (MHz) 1500 MHz
    Texture Fill Rate (billion/sec) 76.8


    Was is n eigentlich das Schnellste was man aktuell bekommen kann?

    In der Zukunft?

    GTX 295

    Was is n eigentlich der Unterschied zw.:
    GeForce, TESLA und QUADRO ?
    NVIDIA's list of CUDA-enabled products

    -------------------------------

    Ne Core i7 965 @ 3.2 GHz CPU schafft diese WU in 670 Sek. (Ein Core)

    Beides wohl mit unoptimierter Anwendung.

    Wenn ich also ne opt. Anwendung (AK v8.0) auf dem 965 installieren würde, wäre s ja ca. 50 % schneller..

    Also würde diese WU in 335 Sek. durchlaufen..

    D.h. schneller als auf ner GTX 280.


    Schlußfolgerung..
    Man hätte ne 7 Core-CPU mit GPU = 8 threads.. bis jetzt.. da die Anwendung aktuell einen Core zur Berechnung benötigt.
    D.h. wiederum nur n 8 thread-PC. (Core i7)
    Aber dafür mind. doppelten Stromverbrauch..

    Also wer n Core i7 hat, brauch keine GPU extra kaufen..

    Wer n Core2 Quad hat, wohl auch nicht..


    Wenn die GPU-Anwendung in der Zukunft auch alleine ohne Core-unterstützung arbeiten kann.. würde sich bei Core i7 und Core2 Quad eine extra Anschaffung einer GPU nicht lohnen..
    [Stromverbrauchstechnisch/Credits]

    Ob Opimierungspotenzial in der CUDA-Anwendung ist..?


    Oder - was denkt Ihr?
    Geändert von Dirk (18.12.2008 um 01:33 Uhr)
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]


  21. Titel
    Full Member

    Bewertung

    Registriert am
    04.07.2007

    Beiträge
    186

    Danke
    Danke gesagt 12   Danke erhalten 100

    #20

    Standard

    auch ganz interessant

    Q) Does SETI@home run GPU and CPU versions simultaneously?
    No. If BOINC determines your CPU is capable of running the CUDA version, only the CUDA version of SETI@home will run. One copy will run on each GPU you have installed. If you want to keep your CPUs occupied at the same time, you can join another BOINC project.


    http://setiathome.berkeley.edu/cuda_faq.php

    mfg
    Sir Ulli

  22. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #21

    Standard

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Ist ne GTX 280 momentan das Schnellste was man bekommen kann? Cores und MHz.
    GPU Engine Specs:Processor Cores 240
    Graphics Clock (MHz) 602 MHz
    Processor Clock (MHz) 1296 MHz
    Texture Fill Rate (billion/sec) 48.2
    Es gibt auch noch übertaktete GTX280, die wären dann noch etwas schneller. Bei meiner GTX260 sind die 216 Shader z.B. mit ~1.400 MHz getaktet, damit dürfte sie einer 'normalen' GTX280 nur wenig nachstehen, ist aber mit ca. 270,- EUR deutlich billiger.

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Was is n eigentlich das Schnellste was man aktuell bekommen kann?
    Ich glaube die Tesla Karten sind teilweise noch etwas schneller als die Grafikkarten, aber das ist sicher nur was für ganz Abgedrehte hinsichtlich Privatgebrauch.

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Was is n eigentlich der Unterschied zw.:
    GeForce, TESLA und QUADRO ?
    GeForce sind die 'normalen' Grafikkarten für den Consumerbereich, also (zumindest bis jetzt ) hauptsächlich für's Daddeln und für HD-Videowiedergabe.

    Tesla sind reine Coprocessorkarten, das heißt die haben zwar eine GPU onboard, aber es fehlt die Grafikkartenfunktion (kein Monitorausgang!). Ich hab keine Ahnung, ob man die als Endverbraucher in D kaufen kann und was die kosten. Lohnt sich IMHO nur, wenn sie biliger als eine vergleichbare GeForce sind, kann ich mir aber nicht vorstellen. Da man kein SLI braucht für CUDA, so wie's aussieht, könnte man eine Tesla vielleicht auch mit einer GeForce kombinieren.

    Quadro sind die Grafikkarten für den CAD Bereich und andere professionelle 3D-Anwendungen. Die Highendkarten aus dieser Reihe sind recht teuer.

    GeForce und Quadro gibt's es dann auch nochmal in diversen mobilen Ausführungen.

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Ob Opimierungspotenzial in der CUDA-Anwendung ist..?
    Da bin ich mir sicher, es wäre seltsam wenn die erste Version, noch dazu wie mir scheint in ziemlicher Hektik auf den Markt geworfen, bereits voll optimiert ist.

    Gruß
    akl

  23. Avatar von AgentSchatten
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    03.07.2007

    Ort
    Münster

    Beiträge
    2.947

    Danke
    Danke gesagt 128   Danke erhalten 159

    #22

    Standard

    Wobei man sagen muß das die Quadro Karten in den meisten Fällen nur nen anderes Bios nutzen und sonnst Baugleich/ähnlich sind.

    Hab grad nur nen älteren link aber ich denke das hat sich bisher noch nicht geändert bei den neuen Karten.

    http://www.golem.de/0106/14576.html
    Geändert von AgentSchatten (18.12.2008 um 19:50 Uhr)

  24. Avatar von Beorn
    Titel
    BOINC Maniac

    Bewertung

    Registriert am
    09.11.2008

    Ort
    in der Wetterau

    Beiträge
    688

    Danke
    Danke gesagt 37   Danke erhalten 21

    #23

    Standard

    Zitat Zitat von Sutaru Tsureku Beitrag anzeigen
    Wer SETI@home-GPU-crunched.. posted doch mal Eure PCs.. [Links]
    Das man mal die Zeiten sehen/vergleichen kann..
    Also ich habe mir auch mal die Mühe gemacht und ein paar tatsächliche Rechenzeiten aus den Meldungen des BOINC Managers gefischt. Es handelt sich um eine GTX260 mit 216 Streamprozessoren und ca. 1.400 MHz Takt. Während der Berechnung hatte SETI CUDA einen eigenen Kern zur Verfügung. Die vier getesteten Workunits hatte alle eine relative kurze Laufzeit bei einer AR von ca. 2.7.

    Die Zeiten scheinen stark zu schwanken, wenn SETI CUDA keinen eigenen Kern zur Verfügung hat, daher traue ich mich noch nicht dazu eine Aussage zu machen.

    Kurz gesagt ergeben sich etwa 213 credits pro Stunde oder 5112 credits pro Tag, wenn man es hochrechnet. Das erscheint erst mal sehr viel, und ist es für SETI Verhältnisse sicher auch (mein Athlon 64 X2 6000+ schafft das sicher nicht). Wenn man aber bedenkt, dass ich bei GPUGRID locker zwei workunits pro Tag schaffe und somit über 6.400 credits ohne einen Kern der CPU zur Verfügung zu stellen dann relativiert sich das wieder.

    Im Einzelnen:

    15no08aa.1041.23108.3.8.225_0
    WU true angle range is : 2.730826
    Start : 18.12.2008 16:45:15|SETI@home|Starting task 15no08aa.1041.23108.3.8.225_0 using setiathome_enhanced version 605
    Ende : 18.12.2008 16:49:25|SETI@home|Computation for task 15no08aa.1041.23108.3.8.225_0 finished
    Zeit : 250 s
    Credits : 14.70

    15no08ab.1038.22976.3.8.89_0
    WU true angle range is : 2.715390
    Start : 18.12.2008 16:36:55|SETI@home|Starting task 15no08ab.1038.22976.3.8.89_0 using setiathome_enhanced version 605
    Ende : 18.12.2008 16:41:05|SETI@home|Computation for task 15no08ab.1038.22976.3.8.89_0 finished
    Zeit : 250 s
    Credits : 14.70

    15no08aa.1041.23108.3.8.208_0
    WU true angle range is : 2.730826
    Start : 18.12.2008 17:26:38|SETI@home|Starting task 15no08aa.1041.23108.3.8.208_0 using setiathome_enhanced version 605
    Ende : 18.12.2008 17:30:46|SETI@home|Computation for task 15no08aa.1041.23108.3.8.208_0 finished
    Zeit : 248 s
    Credits : 14.70

    15no08aa.1041.23108.3.8.219_0
    WU true angle range is : 2.730826
    Start : 18.12.2008 16:57:46|SETI@home|Starting task 15no08aa.1041.23108.3.8.219_0 using setiathome_enhanced version 605
    Ende : 18.12.2008 17:01:51|SETI@home|Computation for task 15no08aa.1041.23108.3.8.219_0 finished
    Zeit : 245 s
    Credits : 14.70

    Im direkten Vergleich mit den Flügelmännern ist die Berechnungszeit teilweise um den Faktor 100 kleiner als auf der CPU.

    Gruß
    akl


  25. Titel
    BOINC Maniac

    Bewertung

    Registriert am
    23.10.2007

    Beiträge
    981

    Danke
    Danke gesagt 5   Danke erhalten 95

    #24

    Lächeln

    Zu meiner letzten Frage..

    Welche GeForce wäre denn momentan am schnellsten?

    Ne GTX 280 oder ne 9800 GX2 ?


    Bis jetzt probieren die Spezis im SETI@home-board auch herum, was machbar ist..
    Eigentlich heißt s ja.. pro GPU ein Core von der CPU.. und wenn SETI@home auf der GPU, dann kein SETI@home (Enhanced) auf der CPU. Nur n anderes Projekt (vielleicht aber auch SETI@home Astropulse) auf der CPU.
    Jetzt wird versucht, SETI@home auf der CPU (viell. alle Cores) und SETI@home auf der GPU (ohne Core-unterstützung).

    Summarize Cuda?

    Does anyone run CPU + GPU SETI on main?


    Danke für die Rechenzeiten!

    Meine letzten Shorties (von denen ich die Zeiten habe) waren:
    WU true angle range is : 1.380430 - CPU time 904.8906 - Claimed credit 16.804157005237

    Also würde schätungsweise ne 14,70 WU in ca. 850 Sek. bei meinem QX6700 @ 3.14 GHz durchflutschen.

    Auf Deiner GTX 260 in 250 Sek.


    D.h. eine GTX 260 hätte ca. n RAC wie ein Intel Quad @ ~ 3.0 GHz.

    Wenn man zusätzlich zur GPU n Multicore hat, dementsprechend mehr RAC..


    Also, wenn ich wirklich auf mein Mobo mit nur PCIe-Steckplatz ne PCIe 2.0 einstecken kann (und auf voller Leistung crunchen), dann muß ich mir das mal überlegen..
    Dann hätte ich theoretisch n RAC von:
    QX6700 aktuell @ 2.66 GHz = 4800
    QX6700 3 threads + GPU = 3600 + 4800 = 8400

    Besser wäre s ja natürlich:
    4 threads + GPU = 9600

    Hätte dann aber viell. 100 W mehr Stromverbrauch.. oder mehr?
    (GTX 280 - max. ~ 236 W)
    (max. ~ 197 W für ne 9800 GX2)
    Geändert von Dirk (19.12.2008 um 00:51 Uhr)
    MfG
    | Celeron J1900 @4*2.42 (iGPU, HD Graphics) + GT730 | 2* Xeon E5-2630v2 @12(24)*2.90 + 4* R9FuryX | In Vorbereitung: Core i7-6700K @4(8)*4.0 (iGPU, HD Graphics 530) + 2* GTX980Ti |

    [BOINC Statistik]

  26. Avatar von MichaelR
    Titel
    ist hier zu Hause

    Bewertung

    Registriert am
    03.07.2007

    Ort
    Bad Aibling

    Beiträge
    2.748

    Danke
    Danke gesagt 96   Danke erhalten 50

    #25

    Standard

    So, Seti läuft endlich auf der Graka, und stabil wie es scheint.Ich habe wieder den 6.2.1 installiert. Die 8800GTS 512 läuft leicht übertaktet und was noch auffällt die CPU Auslastung ist laut Taskmanger 0 bis1% und die Temperaturen laut GPU-Z sind im Gegensatz zu GPUGrid um ca 14° niedriger.
    Wenn jetzt noch die 20 Wu durchgerechnet werden und ein paar gute Credits abwerfen bin ich zufrieden.

    Gruß Michael
    Gruß Michl

    Die Antwort ist 42. Die Frage muss noch formuliert werden

Ähnliche Themen

  1. SETI@home/AstroPulse Beta
    Von Terminator im Forum SETI@home
    Antworten: 24
    Letzter Beitrag: 02.09.2019, 17:13
  2. MindModeling@Home (Beta)
    Von McCarron im Forum Medizin und Biologie
    Antworten: 125
    Letzter Beitrag: 31.05.2019, 10:06
  3. SETI@home-Beta-WUs auf NVIDIA Grafikkarten
    Von Dirk im Forum SETI@home
    Antworten: 105
    Letzter Beitrag: 07.12.2009, 09:33
  4. SETI@HOME SETI-Forscher suchen mehr Freiwillige
    Von opaauer im Forum Wissenschaftsforum
    Antworten: 4
    Letzter Beitrag: 22.05.2008, 17:28
  5. ABC@home beta
    Von RealSanta im Forum ABC@home (Mathematik)
    Antworten: 3
    Letzter Beitrag: 05.10.2007, 07:11

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO