• Projekte

    von Veröffentlicht: 26.01.2017 21:35
    1. Kategorien:
    2. Projekte

    Hintergrund:
    Jedes Jahr werden ungefähr 300.000 Kinder mit Krebs diagnostiziert und ungefähr 80.000 sterben an Krebs. Im Jahr 2009 trat World Community Grid den Kampf an, um diese trübe Statistik zu verbessern, indem es das Projekt "Help Fight Childhood Cancer" unterstützte. Diese Forschung hat dazu beigetragen, dass Wissenschaftler mehrere potenzielle Behandlungsmethoden für Neuroblastom, einer der häufigsten Krebsarten, die Säuglinge und Kleinkinder beeinflussen, entdeckten. Jetzt haben die gleichen Wissenschaftler ihr Team und die Forschung mit dem "Smash Childhood Cancer"-Projekt auf der Suche nach Wirkstoffkandidaten für andere Arten von Kinderkrebs erweitert.

    Das Problem:
    In den vergangenen 20 Jahren wurden nur wenige Medikamente zur Behandlung von Krebs im Kindesalter von der US-amerikanischen Food and Drug Administration genehmigt. Die Hälfte aller Chemotherapie-Behandlungen die für Kinder mit Krebs verwendet wurden, gibt es seit 25 Jahren oder länger.

    Mitglieder des Smash-Childhood-Cancer-Teams haben Proteine und andere Moleküle identifiziert, die bei bestimmten Krebserkrankungen die Hauptrolle spielen. Die Herausforderung besteht nun darin, chemische Wirkstoffkandidaten zu finden, die speziell auf diese Schlüsselmoleküle zielen und somit die Krebszellen kontrollieren. Allerdings ist die Suche nach solchen Medikamentenkandidaten unter Millionen von Möglichkeiten ein teurer und anspruchsvoller Prozess.

    Die vorgeschlagene Lösung:
    Eine Suche dieser Größenordnung ist nur mit Hilfe der Freiwilligen des World Community Grid möglich. Die Wirksamkeit dieser chemischen Verbindungen kann in Millionen von virtuellen chemischen Experimenten getestet werden, die somit auf den freiwillig zur Verfügung gestellten Computern oder Android-Geräten durchgeführt werden.

    Diese Berechnungen werden die besten Moleküle identifizieren, die wahrscheinlich jedes der Zielmoleküle, die in Krebszellen gefunden werden, kontrollieren. Laboruntersuchungen werden dann die besten Verbindungen aus den festgestellten Kandidaten für weitere Forschung und Entwicklung von Arzneimitteln identifizieren.

    Neben dem Neuroblastom sind die Wissenschaftler zunächst an der Entwicklung von Behandlungen für Wilms-Tumore (maligne Erkrankungen in den Nieren), Hepatoblastom (Leberkrebs), Keimzelltumoren und Osteosarkom (Knochenkrebs) interessiert.

    Als nächstes gehen Medikamentenkandidaten, die durch das World Community Grid-Projekte identifiziert werden, üblicherweise durch einen umfangreichen Entwicklungsprozess, um in Behandlungsmethoden umgewandelt zu werden. Zum Beispiel müssen Forscher die Moleküle in der Art modifizieren, damit sie die Toxizität besser beseitigen können und um diese leichter verwalten zu können. Wir hoffen, dass dieses Projekt auch andere Forschungsteams und Wissenschaftler viel schneller zu diesem Entwicklungsstadium weiterschreiten lässt und das Endziel der Heilung von Kinderkrebs erreicht werden kann.

    Wie alle anderen World-Community-Grid-Forschungspartner ist das Smash-Childhood-Cancer-Forschungsteam verpflichtet, ihre Daten so schnell wie möglich an die Öffentlichkeit weiterzugeben, so dass andere Wissenschaftler die Entwicklung einiger der identifizierten und viel versprechenden Verbindungen in neue Medikamente vorantreiben können.

    Badges:

    (mehr als 5 Anhänge sind nicht erlaubt)

    Link zum Projekt beim WCG: https://www.worldcommunitygrid.org/r...c1/overview.do (auf englisch)
    von Veröffentlicht: 23.01.2017 22:05
    1. Kategorien:
    2. Projekte

    Universe@home hat eine Grafik veröffentlicht, welche die typische Entstehungsgeschichte einer ultraleuchtkräftigen Röntgenquelle in einem Doppelsternsystem mit einem Schwarzen Loch darstellt:

    Entwicklung einer ultraleuchtkräftigen Röntgenquelle aus einem Schwarzen Loch

    Die Untersuchung der Natur von ultraleuchtkräftigen Röntgenquellen (ULX) dauert noch an und wir warten derzeit auf Rückmeldung unserer Mitarbeiter. Ich möchte derweil eine Abbildung der Entwicklung einer typischen ULX mit einem Schwarzen Loch als Akkretor mit euch teilen.

    Um es kurz zu machen: Zwei massereiche Sterne umkreisen sich in einem Doppelsternsystem. Der schwerere dehnt sich als Folge der Entwicklung seines Kerns aus und beginnt, Masse an seinen Begleiter zu verlieren. Dieser Massentransfer ist dynamisch instabil und der zweite Stern wird von der Materie des ersten Sterns umgeben. Wir nennen diese Phase eine gemeinsame Hülle (engl. common envelope, CE) und sie ereignet sich typischerweise, wenn das System etwa zwischen 4 und 5 Millionen Jahre alt ist.

    Wenn der Begleiter eine hinreichende Orbitalenergie hat, wird die gemeinsame Hülle abgestoßen und der Abstand der Sterne schrumpft deutlich. Die Hauptkomponente braucht nun weniger als 100000 Jahre, bis sie zu einem Schwarzen Loch kollabiert.

    Die Orbitalenergie des Systems wird kontinuierlich in Form von Gravitationswellen abgestrahlt, wodurch der Abstand weiter schrumpft. Gleichzeitig dehnt sich der Begleitstern aus. Wenn nun der Massentransfer auf das Schwarze Loch innerhalb der ersten 500 Millionen Jahre beginnt (typischerweise innerhalb der ersten 10-20 Millionen Jahre), ist der Fluss stark genug, um eine ULX anzutreiben.

    [...]
    23.01.2017, 16:02:12 MEZ

    Originaltext:
    Zitat Zitat von http://universeathome.pl/universe/
    Evolution of a black hole ULX
    [...]
    The investigation of ULX's nature is still in progress and currently we are waiting for feedback from our collaborators. Meanwhile, I want to share with you a figure of the evolution of a typical ULX with black hole accretor.

    To make the long story short, two massive stars bore in a binary. One which is heavier expands as a result of its nuclear evolution and starts to shed mass onto its companion.This mass transfer is dynamically unstable and the second star becomes engulfed with the primary star's matter. We call this phase a common envelope and it happens typically when the system's age is between 4 and 5 million years.

    If the companion has enough orbital energy, the common envelope is rejected and the stars' separation shrinks significantly. The primary needs now less than 100,000 years to collapse and form a black hole.

    The system's orbital energy is constantly emitted in gravitational waves, which results in further separation shrinkage. Simultaneously, the secondary star expands. If it manages to commence the mass transfer onto the black hole within the first 500 million years (typically during the first 10-20 million years), the flow will be strong enough to power a ULX.

    [...]
    23 Jan 2017, 15:02:12 UTC
    von Veröffentlicht: 23.01.2017 17:15
    1. Kategorien:
    2. Projekte

    Fast alle BOINC-Projekte mit Bezug zum LHC wurden im Laufe des letzten Jahres schon in Subprojekte von LHC@home umgewandelt, jetzt beginnt auch der Umzug von ATLAS@Home auf die gemeinsame Plattform:

    Zusammenlegung von ATLAS und LHC@home
    Hallo zusammen,

    wie ihr vielleicht wisst, arbeiten wir daran, alle mit dem LHC beschäftigten Projekte unter einem gemeinsamen Projekt LHC@home zusammenzufassen. Die Idee ist, einen einzigen Einstiegspunkt anzubieten für jeden, der bei der Forschung am CERN mithelfen möchte.

    Wir haben nun eine Beta-Anwendung für ATLAS bei LHC@home aufgesetzt, daher laden wir euch ein, diese auszuprobieren und Rückmeldungen im ATLAS-Forum zu posten. Ihr müsst Beta-Anwendungen in euren Projekteinstellungen aktivieren, um diese WUs zu bekommen.

    Derzeit dienen die WUs dort nur als Test und wir verwenden die Ergebnisse nicht, aber bald wird es mit echten WUs weitergehen. Sobald alles dort gut funktioniert, werden wir alle bitten, auf LHC@home umzustellen und werden über das Projekt ATLAS@Home keine Arbeit mehr verschicken.

    Punkte gehen nicht verloren! Wir werden alle Punkte, die hier angesammelt wurden, zu LHC@home übertragen, sobald alle verbliebenen Aufgaben beendet sind. Um dies einfacher zu machen, wäre es hilfreich, wenn ihr bei beiden Projekten die gleiche E-Mail-Adresse eingetragen hat, da dies der einzige Weg ist, die Benutzerkonten bei den Projekten zuzuordnen.

    Frohes Crunchen weiterhin,
    das ATLAS@Home-Team
    23.01.2017, 12:55:08 MEZ

    Originaltext:
    Zitat Zitat von http://atlasathome.cern.ch/
    ATLAS/LHC@Home consolidation
    Hi all,

    As you may know we are working on putting all LHC-related projects under the combined LHC@Home project. The idea is to provide a single entry point for everyone who wants to participate in helping CERN research.

    We have now set up a beta app for ATLAS on LHC@Home so we invite you to try it and provide feedback on the ATLAS message board. You need to enable beta apps in your project preferences to get these WU.

    Currently the WU there are just for tests and we don't use the results but soon we will proceed with real WU. Once everything is working well there we will ask everyone to migrate over to LHC@Home and stop sending work to the ATLAS@Home project.

    Credit will not be lost! We will move all the credit accumulated here to LHC@Home once all the remaining tasks are finished. To make this easier it would be very helpful if your email address you register with is the same on both projects, since this is the only way to match the accounts on each project.

    Happy continued crunching,
    The ATLAS@Home team
    23 Jan 2017, 11:55:08 UTC
    von Veröffentlicht: 23.01.2017 16:55
    1. Kategorien:
    2. Projekte

    Nicht ganz vier Tage nach dem ersten Megaprimzahlfund des Jahres für PrimeGrid gab es schon den zweiten Treffer:

    Noch eine PPS-Megaprimzahl!
    Am 19. Januar 2017 um 23:43:32 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:

    1183*2^3353058+1

    Die Primzahl hat 1009375 Dezimalstellen und erreicht in Chris Caldwells “Datenbank der größten bekannten Primzahlen” Platz 201 insgesamt.

    Die Entdeckung gelang Michele T. Mazzucato (nillium) aus Italien mit einem Intel Core i7-6700 @ 3,40 GHz mit 8 GB RAM unter Windows 7. Dieser Rechner brauchte etwa 2 Stunden 26 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 20. Januar 2017 um 01:27:58 MEZ von Akinori Kanno (teagin) aus Japan mit einem Intel Core i7-3770 @ 3,40 GHz mit 16 GB RAM unter Windows 10 bestätigt. Dieser Rechner brauchte etwa 2 Stunden 49 Minuten für den Primalitätstest mit LLR.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    23.01.2017 | 14:59:24 MEZ

    Originaltext:
    Zitat Zitat von http://www.primegrid.com/
    Another PPS Mega Prime!
    On 19 January 2017, 22:43:32 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:

    1183*2^3353058+1

    The prime is 1,009,375 digits long and will enter Chris Caldwell's “The Largest Known Primes Database” ranked 201st overall.

    The discovery was made by Michele T. Mazzucato (nillium) of Italy using an Intel(R) Core(TM) i7-6700 CPU @ 3.40GHz with 8GB RAM, running Microsoft Windows 7 Professional Edition. This computer took about 2 hours 26 minutes to complete the primality test using LLR.

    The prime was verified on 20 January 2017, 00:27:58 UTC by Akinori Kanno (teagin) of Japan using an Intel(R) Core(TM) i7-3770 CPU @ 3.40GHz with 16GB RAM, running Microsoft Windows 10 Professional Edition. This computer took about 2 hours 49 minutes to complete the primality test using LLR.

    For more details, please see the official announcement.
    23 Jan 2017 | 13:59:24 UTC
    von Veröffentlicht: 21.01.2017 13:15
    1. Kategorien:
    2. Projekte

    Hallo zusammen!

    Diese Woche war eine gute Woche mit Veröffentlichungen diese und letzte Woche im Science Journal. Eure Beiträge waren essentiell für beide Durchbrüche! Hier sind einige Presseartikel, die euch vielleicht interessieren:


    http://www.geekwire.com/2017/big-dat...otein-puzzles/

    https://www.theatlantic.com/science/...rigami/513638/

    http://www.geekwire.com/2017/uw-protein-pockets/

    Vielen Dank erneut an euch für eure unschätzbaren Beiträge zu dieser Wissenschaft!

    David
    Jan 20, 2017



    Weitere gute Neuigkeiten!

    Unser Paper mit dem Namen "Proteinstrukturvorhersage mit Hilfe metagenomischer Datensequenzen" wurde heute im Science Journal veröffentlicht. Wir möchten allen Rosetta@home-Teilnehmern danken, die die benötigten Berechnungen für diese Arbeit durchgeführt haben. In diesem Paper wird beschrieben, wie wir mit Hilfe bekannter, ähnlicher Proteinstrukturen aus metagenomischen Datensequenzen und Rosetta@home die genauen Strukturen für 622 Proteinfamilien, die bislang noch nicht in der Proteindatenbank (PDB) enthalten waren, vorhersagen. Mehr als 100 dieser Strukturen weisen bisher unbekannte Faltungsmuster auf. Da experimentelle Proteinstrukturvorhersage teuer und oftmals kompliziert ist, zeigt diese Forschung auf, wie wichtig Computerberechnungen mit Hilfe metagenomischer Daten für verlässliche Strukturvorhersagen sind. Aufgrund der schnell wachsenden Größe dieser Datensätze, sieht die Zukunft der Proteinstrukturvorhersage strahlend aus! Danke, Rosetta@home-Teilnehmer!

    Hier ist eine interessante Perspektive auf die Veröffentlichung und ihre Bedeutung, geschrieben von Johannes Söding: "Big Data kommt in der Proteinstrukturvorhersage an".

    Weitere ähnliche Neuigkeiten:



    Jan 19, 2017

    Originaltexte:


    Zitat Zitat von https://boinc.bakerlab.org/rosetta/
    Hi Everybody!

    this has been a good week with papers in this and last weeks Science magazine. your contributions were essential for both breakthroughs! here is some of the press you might find interesting:

    http://www.geekwire.com/2017/big-dat...otein-puzzles/

    https://www.theatlantic.com/science/...rigami/513638/

    http://www.geekwire.com/2017/uw-protein-pockets/

    thank you again for your invaluable contributions to this research!!

    David
    Zitat Zitat von https://boinc.bakerlab.org/rosetta/
    More good news!

    Our paper titled "Protein structure determination using metagenome sequence data" was released today in the journal Science. We would like to thank all Rosetta@Home participants who provided the computing required for this work. In the paper, we describe using predicted co-evolving contacts from metagenomics sequence data and Rosetta to accurately predict the structures for 622 protein families that are not represented in the PDB. Among these structures, over 100 were new folds. Since experimental protein structure determination is costly and often difficult, this study highlights the ability to use computational methods with metagenomics data for reliably structure determination. With the rapidly growing size of genomics data, the future in mapping the structure space of protein families looks bright! Thank you Rosetta@Home participants!

    Here is an interesting perspective written by Johannes Söding about the paper and it's significance, "Big-data approaches to protein structure prediction".

    and related news articles:

    Big data (and volunteers) help scientists solve hundreds of protein puzzles
    Seeking Structure With Metagenome Sequences
    Decoding the Origami That Drives All Life
    von Veröffentlicht: 18.01.2017 20:35
    1. Kategorien:
    2. Projekte

    Die Website von NumberFields@home hat eine Auffrischung erfahren und verwendet nun die neueste Version der BOINC-Serversoftware:

    Aktualisierung auf neueste BOINC-Serversoftware
    Ihr habt vielleicht mitbekommen, dass das Projektforum fast einen Monat lang nicht erreichbar war.

    Das wurde hauptsächlich durch ein Upgrade auf PHP7 verursacht. Nachdem wir alles andere probiert hatten, haben wir uns schließlich entschlossen, auf den neuesten BOINC-Webcode zu aktualisieren.
    10.01.2017, 17:04:35 MEZ


    Außerdem gibt es eine Zusammenfassung der Fortschritte, die das Projekt im letzten Jahr gemacht hat:

    Das Jahr 2016 im Rückblick
    Ich wollte dies kurz vor Neujahr abschicken, aber das Forum funktionierte nicht. Besser spät als nie...

    Das letzte Jahr war ein sehr produktives Jahr für NumberFields@home. Eine Zusammenfassung unserer Leistungen:
    1. Im letzten Mai hat die beschränkte Anwendung ihre mehrjährige Suche vollendet. Sie hat alle nicht primitiven Körper mit dem Grad 10 mit absoluten Diskriminanten kleiner oder gleich 1,2⋅10^11 gefunden.
    2. Im Juli hat dann wie durch ein Wunder eine spezielle Suche den hypothetisch angenommenen Körper gefunden, nach dem sie gesucht hat. Diese Suche lief etwa 10 Monate lang ab und zu. Der Körper war eine A5-Erweiterung von Q(√421), nur bei 2 verzweigt. Ihr könnt in diesem Post mehr darüber lesen:
    https://numberfields.asu.edu/NumberF...ead.php?id=234
    3. Die Anwendung zu regulären Polynomen zehnten Grades verbrachte den Großteil des Jahres mit dem letzten Stufe von "Datensatz 11" (die WUs mit DS-11x271 im Namen). Ihr habt vielleicht auf der Batch-Status-Seite gesehen, dass dieser Teil der Suche nahezu abgeschlossen ist - ein wirklich großer Meilenstein. Die Suche wird mit den höheren Stufen über Q(√2) fortgesetzt.

    Danke an all unsere Freiwilligen, die 2016 zu einem so erfolgreichen Jahr gemacht haben!
    15.01.2017, 00:24:12 MEZ


    Originaltexte:
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/
    Upgrade to latest BOINC server
    You may have noticed the forums have been down for almost a month now.

    This was mainly caused by an upgrade to PHP7. After trying everything else, we finally decided to upgrade the BOINC web code.
    10 Jan 2017, 16:04:35 UTC
    Zitat Zitat von https://numberfields.asu.edu/NumberFields/
    2016 year in review
    I meant to send this just before the new year, but the boards were down. Better late than never...

    Last year was a productive year for NumberFields@home. To summarize our accomplishments:
    1. Last May the bounded app completed its multi-year search. It found all imprimitive degree 10 fields with absolute discriminant less than or equal to 1.2E11.
    2. Then in July a special search miraculously found the hypothesized field it had been searching for. This search had been running off and on for about 10 months. This field was an A5 extension of Q(√421), ramified only at 2. You can read more about it on this post:
    https://numberfields.asu.edu/NumberF...ead.php?id=234
    3. The regular decics app spent the majority of the year on the final tier of "Data Set 11" (those WUs with DS-11x271 in the name). You may have noticed on the batch status page that this subsearch is just about done - a really big milestone. The search will continue with the higher tiers over Q(√2).

    Thank you to all our volunteers who made 2016 such a successful year!
    14 Jan 2017, 23:24:12 UTC
    von Veröffentlicht: 17.01.2017 21:45
    1. Kategorien:
    2. Projekte

    PrimeGrids erste Megaprimzahl des Jahres 2017 wurde gefunden, es handelt sich um eine weitere Proth-Megaprimzahl:

    PPS-Megaprimzahl!
    Am 16. Januar 2017 um 05:34:40 MEZ hat PrimeGrids Subprojekt PPS Mega Prime Search eine Megaprimzahl gefunden:

    543*2^3351686+1

    Die Primzahl hat 1008961 Dezimalstellen und erreicht in Chris Caldwells Datenbank der größten bekannten Primzahlen Platz 201 insgesamt.

    Die Entdeckung gelang Simon Rawles (rawles) aus dem Vereinigten Königreich mit einem Intel Core i7-5960X @ 3,00 GHz mit 32 GB RAM unter Linux. Dieser Rechner brauchte etwa 56 Minuten für den Primalitätstest mit LLR.

    Die Primzahl wurde am 16. Januar 2017 um 06:06:22 MEZ von Ed Goforth (BlisteringSheep) aus St. Kitts und Nevis mit einem Intel Xeon E5-2620 v3 @ 2,40 GHz mit 64 GB RAM unter Windows Server 2012 R2 bestätigt. Dieser Rechner brauchte etwa 1 Stunde 35 Minuten für den Primalitätstest mit LLR. Ed ist Mitglied des Teams Christians.

    Für weitere Einzelheiten siehe bitte die offizielle Bekanntgabe.
    17.01.2017 | 19:08:23 MEZ

    Originaltext:
    Zitat Zitat von http://www.primegrid.com/
    PPS Mega Prime!
    On 16 January 2017, 04:34:40 UTC, PrimeGrid’s PPS Mega Prime Search project found the Mega Prime:

    543*2^3351686+1

    The prime is 1,008,961 digits long and will enter Chris Caldwell's The Largest Known Primes Database ranked 201st overall.

    The discovery was made by Simon Rawles (rawles) of the United Kingdom using an Intel(R) Core(TM) i7-5960X CPU @ 3.00GHz with 32GB RAM, running Linux. This computer took about 56 minutes to complete the primality test using LLR.

    The prime was verified on 16 January 2017, 05:06:22 UTC by Ed Goforth (BlisteringSheep) of Saint Kitts and Nevis using an Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz with 64GB RAM, running Microsoft Windows Server 2012 R2. This computer took about 1 hour 35 minutes to complete the primality test using LLR. Ed is a member of the Christians team.

    For more details, please see the official announcement.
    17 Jan 2017 | 18:08:23 UTC
    von Veröffentlicht: 16.01.2017 22:55
    1. Kategorien:
    2. Projekte

    Durch den Fund einer Primzahl für das letzte kleinere k wurde bewiesen, dass k=50 die kleinste verallgemeinerte Sierpinski-Zahl zur Basis b=844 ist:

    Basis S844 bewiesen
    Am 31. Dezember 2016 hat conf [MM], Mitglied des Teams SETI.USA, die letzte Primzahl für die Basis S844 gefunden.
    Die Primzahl 40*844^246524+1 hat 721416 Dezimalstellen und erreicht die TOP5000 in Chris Caldwells Datenbank der größten bekannten Primzahlen.

    Gut gemacht!
    16.01.2017, 13:37:55 MEZ

    Originaltext:
    Zitat Zitat von http://srbase.my-firewall.org/sr5/
    base S844 proven
    On 31th of Dezember 2016, conf [MM], a member of the team SETI.USA found the last prime for base S844.
    The prime 40*844^246524+1 has 721416 digits and entered the TOP5000 in Chris Caldwell's The Largest Known Primes Database.

    Well done!
    16 Jan 2017, 12:37:55 UTC
    von Veröffentlicht: 13.01.2017 23:40
    1. Kategorien:
    2. Projekte

    TN-Grid verschickt die SSE2-, AVX- oder FMA-optimierten Anwendungen nun automatisch, eine Installation mittels app_info.xml ist nicht mehr erforderlich:

    Neue Anwendung (v 0.10)
    Wir geben eine neue Version der Anwendung (v 0.10) für alle Plattformen inklusive sse2, avx und fma heraus. Die neue Anwendung ist deutlich schneller als die vorherige, danke an den Benutzer Daniel, der sie erstellt hat. Siehe diesen Thread (http://gene.disi.unitn.it/test/forum_thread.php?id=135) für weitere Informationen.
    13 Jan 2017, 10:16:40 UTC

    Originaltext:
    Zitat Zitat von http://gene.disi.unitn.it/test/
    New application (v 0.10)
    We are deploying the new version of the application (v 0.10), for all the platforms, including sse2, avx and fma. The new application is way faster than the previous one, thanks to the user Daniel who made it. See this thread (http://gene.disi.unitn.it/test/forum_thread.php?id=135) for further info.
    13 Jan 2017, 10:16:40 UTC
    von Veröffentlicht: 13.01.2017 23:25
    1. Kategorien:
    2. Projekte

    Über die Suchmethoden, deren Empfindlichkeit und die Entdeckung dreizehn junger Gammapulsare berichtet die neueste Veröffentlichung von Einstein@Home:

    Ein Dutzend und ein Neutronensterne – Einstein@Home findet 13 neue Gamma-Pulsare
    Eine neue Veröffentlichung mit dem Titel “The Einstein@Home gamma-ray pulsar survey I: search methods, sensitivity and discovery of new young gamma-ray pulsars”, welche die Entdeckung von 13 neuen Gammapulsaren durch Einstein@Home in Fermi-LAT-Daten präsentiert, wurde nun im The Astrophysical Journal veröffentlicht. Ihr könnt die vollständige Veröffentlichung kostenlos auf arXiv lesen (klickt oben rechts auf “PDF”).

    Eine Pressemitteilung, welche die Veröffentlichung zusammenfasst, ist auf der Homepage des Max-Planck-Instituts für Gravitationsphysik verfügbar.

    Wir sind allen Freiwilligen, die ihre CPU-Zeit an Einstein@Home gespendet haben, äußerst dankbar, da diese Durchmusterung ohne sie nicht durchführbar gewesen wäre und diese Entdeckungen nicht möglich gewesen wären. Danke!

    Benjamin für das Projekt Einstein@Home
    11.01.2017 11:00:11 MEZ

    Originaltext:
    Zitat Zitat von https://einsteinathome.org/content/one-dozen-and-one-neutron-stars-%E2%80%93-einsteinhome-discovers-13-new-gamma-ray-pulsars
    One Dozen and One Neutron Stars – Einstein@Home discovers 13 new gamma-ray pulsars
    A new paper, titled “The Einstein@Home gamma-ray pulsar survey I: search methods, sensitivity and discovery of new young gamma-ray pulsars”, that presents the discovery of 13 new gamma-ray pulsars by Einstein@Home in Fermi-LAT data has now been published in The Astrophysical Journal. You can read the full publication for free on the arXiv (click on “PDF” at the top right).

    A press release summarising the publication is available on the homepage of the Max Planck Institute for Gravitational Physics.

    We are extremely grateful to all volunteers who have donated their CPU time to Einstein@Home, without whom this survey could not have been performed and without whom these discoveries would not have been possible. Thank you!

    Benjamin for the Einstein@Home project
    11 Jan 2017 10:00:11 UTC
    Seite 51 von 70 Erste ... 41 49 50 51 52 53 61 ... Letzte
Single Sign On provided by vBSSO