Multimodale Foundation-Modelle für die Teilchenphysik bei Fehlspezifizierung des Modells (MMFM)
In diesem Projekt werden wir neuartige Trainingsstrategien für skalierbare Basismodelle für multimodale Teilchenphysikdaten entwickeln und erlernte Methoden zur Domänenanpassung (DA) untersuchen, um Domänenverschiebungen zwischen Simulation und realen Daten zu verringern. Wir kombinieren selbstüberwachte Lernstrategien (SSL) für einzelne Modalitäten und CLIP-ähnliche Ausrichtung multimodaler Einbettungen mit einer flexiblen transformatorbasierten Architektur, um ein vielseitiges Grundgerüst für eine breite Palette von Anwendungsfällen in der Teilchenphysik zu schaffen, wie z. B. Klassifizierung, Teilchenidentifikation und generative Surrogatmodellierung. Wir wollen zeigen, dass die Kombination allgemeiner Trainingsprinzipien, wie maskierte Modellierung (SSL) oder annähernde Invarianz durch adversariales Training (DA), ein vielversprechender Weg zum Aufbau von Allzweckmodellen ist, die in diesem Bereich noch nicht existieren.
Team
Prof. Dr. Lukas Heinrich
Data Science in Physik

Richard Hildebrandt
Data Science in Physik
