© Hector Fellow Academy
8. März 2022
Neue Publi­ka­tion von Maximi­lian Dax

Das Paper von HFA-Dokto­rand Maximi­lian Dax und weite­ren wird auf Konfe­renz präsentiert

In ihrem Paper beschrei­ben die Wissen­schaft­ler eine neue Methode zur Lösung inver­ser Probleme der Wissenschaft.

Während es bislang ledig­lich simula­ti­ons­ba­sierte Inferen­zen mit beding­ten neuro­na­len Dichte­schät­zern gibt, die das zugrunde liegende Vorwärts­mo­dell als Black Box behan­deln, ohne geome­tri­sche Eigen­schaf­ten wie Äquiva­ri­an­zen auszu­nut­zen, stellen die Forschen­den in ihrem Paper eine alter­na­tive Methode zur Einbe­zie­hung von Äquiva­ri­an­zen bei gemein­sa­men Trans­for­ma­tio­nen von Parame­tern und Daten vor.

Äquiva­ri­an­zen sind in wissen­schaft­li­chen Model­len häufig anzutreffen.

Die alter­na­tive Methode, die so genannte Gruppen­äqui­va­ri­ante neuro­nale Poste­ri­or­schät­zung (GNPE), gilt sowohl für exakte als auch für appro­xi­ma­tive Äquiva­ri­an­zen. Als reale Anwen­dung verwen­det das Forschungs­team für das GNPE die amorti­sierte Inferenz von astro­phy­si­ka­li­schen binären schwar­zen Lochsys­te­men aus Gravi­ta­ti­ons­wel­len­be­ob­ach­tun­gen. Die GNPE erreicht die modernste Genau­ig­keit und kann die Inferenz­zei­ten um drei Größen­ord­nun­gen reduzieren.

Das Paper wurde bei der 10th Inter­na­tio­nal Confe­rence on Learning Repre­sen­ta­ti­ons (ICLR) für eine Poster­prä­sen­ta­tion angenom­men. Die ICLR ist die erste Konfe­renz, die sich der Weiter­ent­wick­lung des Bereichs der künst­li­chen Intel­li­genz widmet, der als Reprä­sen­ta­ti­ons­ler­nen, oder allge­mein auch als Deep Learning, bezeich­net wird.

Das Paper wurde von den Autor*innen auf dem Pre-Print-Server arXiv zur Verfü­gung gestellt: