• 04.12.2022

    von Veröffentlicht: 04.12.2022 06:00
    1. Kategorien:
    2. Projekte

    Wieder geht ein Jahr langsam zu Ende. Vielleicht noch mit einem Weltrekord-Primzahlfund? Der Schlusspunkt der PrimeGrid Challenge Series 2022 bietet zumindest die Gelegenheit dazu. Jede Ähnlichkeit des Namens und Logos dieser Challenge mit dem aktuellen Rekordhalter und ältesten Volunteer-Computing-Projekt ist gewiss purer Zufall.


    Great Internet Fermat Prime Search Challenge
    Beginn: 07.12.2022, 05:00 UTC = 06:00 MEZ
    Ende: 17.12.2022, 05:00 UTC = 06:00 MEZ
    Subprojekte:
    - Generalized Fermat Prime Search n=21 (GFN-21)
    - Generalized Fermat Prime Search n=22 (GFN-22)
    - Do You Feel Lucky? (GFN World Record Attempt)


    Der offizielle Thread zur Challenge im PrimeGrid-Forum ist hier zu finden.

    Es zählen für diese Challenge nur WUs der Subprojekte Generalized Fermat Prime Search n=21 (GFN-21), Generalized Fermat Prime Search n=22 (GFN-22) oder Do You Feel Lucky? (GFN World Record Attempt), die nach dem 07.12. um 06:00 Uhr heruntergeladen und vor dem 17.12. um 06:00 Uhr zurückgemeldet werden! Die Subprojekte können in den PrimeGrid-Einstellungen ausgewählt werden.

    Anwendungen sind vorhanden für OpenCL-fähige NVIDIA- und AMD/ATI-Grafikkarten unter Windows, Linux und macOS, Intel-Arc-Grafikkarten unter Windows und Linux sowie Apple-M1/M2-GPUs unter macOS. Für GFN-21 und GFN-22 können auch CPUs verwendet werden, wobei auf jeden Fall mehrere Kerne an einer WU arbeiten sollten, was sich mit der Einstellung Multi-threading: Max # of threads for each task in den Projekteinstellungen erreichen lässt. Die Anwendung stellt erhöhte Ansprüche an die Stabilität der Hardware, daher bitte nicht zu stark übertakten und auf gute Kühlung achten! Auch freier Festplattenplatz sollte vorhanden sein, eine WU von Do You Feel Lucky? belegt gegen Ende etwa 2,5 GB.

    Die schnellsten Grafikkarten benötigen wenige Stunden für eine GFN-21-WU, etwa viermal so lang für eine GFN-22-WU und etwa einen Tag für Do You Feel Lucky?. Letzteres dürfte aufgrund der höheren Bonuspunkte für längere WUs auf den meisten Grafikkarten auch die optimale Wahl hinsichtlich der Punkteausbeute sein, solange die WUs rechtzeitig fertig werden.

    CPUs sind bei GFN-22 deutlich effizienter als bei GFN-21, allerdings liegen die Laufzeiten bei Benutzung aller Kerne (bzw. aller Kerne eines CCX im Fall moderner AMD-CPUs) dann auch bei 2 Tagen für die schnellsten CPUs (GFN-21: etwa halb so lang). Idealerweise sollten pro CPU-WU 40,5 MB Cache verfügbar sein, was die meisten CPUs allerdings überfordert, sodass entsprechend auf den langsameren RAM zurückgegriffen werden muss. In jedem Fall haben moderne Intel- und aktuelle AMD-Ryzen-CPUs durch die automatisch benutzten Optimierungen (AVX, FMA3, AVX-512) einen erheblichen Vorteil. CPUs, die Hyperthreading unterstützen, laufen ggf. effizienter, wenn Hyperthreading nicht benutzt wird.

    Die Punkte für die Challenge-Statistik sind identisch mit den BOINC-Credits, werden jedoch sofort gutgeschrieben, während die BOINC-Credits erst vergeben werden, wenn das Ergebnis überprüft ist. Die Subprojekte verwenden seit kurzem den schnellen Doublecheck-Mechanismus, bei welchem am Ende der WU ein Zertifikat erstellt und hochgeladen wird. Die Überprüfung erfolgt mit einer deutlich kleineren WU (erkennbar an einem c im Namen).

    Team-Stats bei PrimeGrid
    User-Stats bei PrimeGrid

    Team-Stats bei SETI.Germany
    Detail-Statistik für SETI.Germany
    User-Stats bei SETI.Germany

    Zum Diskussionsthread
    von Veröffentlicht: 04.12.2022 01:30
    1. Kategorien:
    2. Projekte

    Seit einigen Tagen sind sowohl für GPUs als auch für CPUs weitere Anwendungen verfügbar. Die neue GPU-Anwendung unterstützt weiterhin nur NVIDIA-GPUs, aber zumindest nun auch die RTX-3000- und RTX-4000-Serie; die zusätzliche CPU-Anwendung nutzt FMA-Befehlssatzerweiterungen und ist somit auf aktuellen CPUs unter Umständen schneller als die bisherigen Anwendungen. Wie bisher wird der serverseitige BOINC-Standardmechanismus verwendet, um die beste Anwendung für die jeweilige CPU oder GPU zu finden, welcher leider nicht unbedingt immer zuverlässig und in einem überschaubaren Zeitrahmen zur tatsächlich besten Wahl führt. Sprich: Der normale Teilnehmer wird zurzeit womöglich abwechselnd verschiedene Anwendungen zugeteilt bekommen und hoffentlich im Laufe der Zeit irgendwann nur noch die für den jeweiligen Rechner schnellste Anwendung.

    Neue CUDA-Anwendung veröffentlicht
    Wir freuen uns, euch unsere neueste CUDA-Anwendung v102.16 vorzustellen!

    Sie wurde auf Basis der Entwicklerwerkzeuge für CUDA v11.8 gebaut und kann daher die große Mehrheit der Grafikkarten mit Compute Capability (CC) von 5.0 bis 8.9 benutzen, wodurch nun auch die Ampere- und Lovelace-Architektur und alle Tegra- und Jetson-Module unterstützt werden.
    Natürlich hat sie wie die älteren Anwendungen ihre eigenen Anforderungen an die Treiberversion, je nach eurer Architektur.
    Damit euer Client sie herunterladen kann, muss auf eurem Rechner eine der folgenden NVIDIA-Treiberversionen installiert sein:
    • 450.80.02* oder neuer für Linux x86_64 und Linux AArch64
    • 452.39* oder neuer für Windows x86_64


    (https://docs.nvidia.com/cuda/cuda-to...tes/index.html, engl.)

    Hier ist eine Liste der GPUs nach NVIDIA-CC.

    Frohes Crunchen und danke für eure Unterstützung!

    Radim Vančo (FoxKyong)
    20.11.2022, 21:03:31 MEZ

    *Anmerkung: Zwar reichen theoretisch diese Treiberversionen, um die Anwendung ausführen zu können, jedoch prüft der Server wohl auf CUDA 11.8, weshalb mindestens Version 520.61.05 für Linux bzw. 522.06 für Windows installiert sein muss.


    Neue FMA-Anwendung veröffentlicht
    Wir freuen uns, euch einen weiteren Satz von Anwendungen vorzustellen, die CPUs mit dem FMA-Befehlssatz ausnutzen können!

    Die Anwendung wurde sowohl für Linux- als auch Windows-Betriebssysteme mit 64-Bit-Architektur gebaut.
    Mit diesen Anwendungen ist zu beachten, dass je nach CPU-Architektur, -Generation, -Modell, -Version, -Geschwindigkeit und der Anzahl der benutzten Kerne wegen des jeweiligen Umgangs mit diesen Befehlen auf verschiedenen Architekturen in manchen Fällen die FMA-Anwendungen langsamer laufen können als die entsprechenden AVX-Anwendungen; ich gehe hier nicht weiter auf die Einzelheiten ein, weil es dazu viele Informationen im Internet gibt. Selbst mit derselben FMA-Anwendung kann es Unterschiede geben. Beispielsweise kann es auf demselben Rechner vorkommen, dass die Beschränkung auf nur einen Kern z.B. eines Intel Xeon W-2195 mit Skylake-W-Architektur dazu führt, dass dieser eine Kern viel schneller, nämlich nahe am Turbo-Takt dieses Prozessors von 4,3 GHz, laufen wird als wenn der Client 12 oder mehr Kerne benutzen darf. Im zweiten Fall werden diese Kerne je nach Anzahl etwa mit dem Basis-Takt des Prozessors von 2,3 GHz laufen, was die Geschwindigkeit der Anwendung drastisch verringert. Siehe das Kapitel "Per Core Turbo Data" in diesem Artikel (engl.) für eine Erklärung, wie die Begrenzungen des Turbo-Taktes funktionieren.

    Dennoch ist der BOINC-Server in der Lage, die Anwendung mit der besten Leistung für jedes einzelne System unter Berücksichtigung mehrerer Faktoren zu finden, und wird nach einer Weile jedem System die richtige Anwendung zuweisen. Das bedeutet, dass eure CPU, auch wenn sie mit FMA-Befehlssatz ausgestattet ist, trotzdem WUs mit der AVX-Anwendung erhalten kann, und das kein Grund zur Sorge ist.

    Frohes Crunchen und danke für eure Unterstützung!

    Radim Vančo (FoxKyong)
    20.11.2022, 21:04:38 MEZ


    Originaltexte:
    Zitat Zitat von https://asteroidsathome.net/boinc/forum_thread.php?id=907
    New CUDA application released
    We are happy to present you our latest CUDA application v102.16!

    It was built on top of CUDA's v11.8 SDK and thus it will be able to utilize the vast majority of cards with Compute Capabilities (CC) between 5.0 till 8.9 adding support for the Ampere & Ada Lovelace micro architecture, and all the Tegra & Jetson modules.
    Of course, it comes with its own requirements for the driver's versions, depending on your architecture, as those before it.
    In order your client to be able to receive it your computer must have one of the following Nvidia driver versions installed:
    • For Linux x86_64 and Linux AArch64 >= 450.80.02
    • For Windows x86_64 >= 452.39


    (https://docs.nvidia.com/cuda/cuda-to...tes/index.html)

    Here is the list of supported by the v102.16 application GPUs by their CC provided by Nvidia.

    So happy crunching and thank you for your support!

    Radim Vančo (FoxKyong)
    20 Nov 2022, 20:03:31 UTC
    Zitat Zitat von https://asteroidsathome.net/boinc/forum_thread.php?id=908
    New FMA application released
    We are happy to present you another set of applications that will utilize those CPUs, which possess the FMA instruction set!

    It was built to support both Linux and Windows OS with 64bit architecture.
    What must be taken into account with these applications is that depending on the CPU architecture, generation, model, version, speed and number of utilized cores, in some cases the FMA applications may run slower than the corresponding AVX ones because of how those instructions are handled on different architectures, details that I'll not going further here as there is a lot of information on Internet. Also, there could be another case using even the same FMA application. For instance, there could be a situation where on the same particular system, having your preferences restrict the use of just a single core of, let's say, an Intel(R) Xeon(R) W Processor Xeon W-2195 of the Skylake-W Architecture, that single core will run much faster, close to processors' Turbo frequency of 4.3GHz, than if your configuration allows the client to utilize let's say 12 or more cores. In the second case those cores will run close to the processors' base frequency of 2.3GHz, depending on their actual number, which will result drastically in lowering of the application performance. Take a look at this article where under the "Per Core Turbo Data" chapter you will find explanation about how the Turbo ratio limits works.

    Still, while the Boinc server is capable of finding the best performed application for every particular system, taking into account multiple factors, and after a while it will start sending the right one for every particular system. Which means that even if your CPU is equipped with the FMA engine it still might receive an AVX tasks and there is nothing to be concerned.

    So happy crunching and thank you for your support!

    Radim Vančo (FoxKyong)
    20 Nov 2022, 20:04:38 UTC
Single Sign On provided by vBSSO