Privatsphäre-erhaltendes und vertrauenswürdiges maschinelles Lernen
Trotz einer stark zunehmenden Verfügbarkeit von höchst leistungsfähigen algorithmischen Werkzeugen für statistische Modellierungen und maschinelles Lernen, werden Lösungen zu vielen der weltweit wichtigsten Probleme durch einen Mangel an wissenschaftlichen Daten beeinträchtigt. Gründe für dieses Ungleichgewicht sind in rechtlichen oder auch ethischen Einschränkungen zu finden in Feldern wie z.B. der Medizin, aber auch im wettbewerblichen Vorteil solcher Daten, die deren Besitzer davon abschrecken diese zu teilen. Diese Einschränkungen, obwohl begründbar und notwendig, führen oftmals zu zweifelhaften Ergebnissen. Ein Beispiel dafür sind die vielen Künstliche-Intelligenz-Algorithmen, die von den für Lebensmittel und Medikamente verantwortlichen Behörden zugelassen werden, obwohl sie nur anhand weniger tausend Datensätze trainiert wurden.
In beiden vorgenannten Fällen kann das Dilemma zwischen Datennutzung und Datenschutz aufgelöst werden indem eine fundamentale Annahme formuliert wird: Es ist nicht der Zugriff auf die Daten, der benötigt wird, sondern der Zugang zu den Erkenntnissen, die aus diesen Daten gewonnen werden können.
Technologien zu Privatsphäre wie differenzielle Privatsphäre, verschlüsselte Berechnung und verteiltes Lernen können diese Lücke überbrücken indem sie die Möglichkeit bieten, Algorithmen anhand von Daten, die nicht lokal verfügbar sind, unter Beibehaltung von Kontroll- und Besitzrechten zu trainieren, aber auch gleichzeitig informationstheoretische Garantien zu Privatsphäre und Vertraulichkeit bereitzustellen.
Das MDSI veranstaltet einen Eröffnungs-Workshop zum Thema Privatsphäre-erhaltendes und vertrauenswürdiges maschinelles Lernen (PPTML).
[weiterlesen]
Coded Distributed Computation with Application to Machine Learning PI: A. Wachter-Zeh; DFG Sachbeihilfe
COALESCENCE: Coded Computation for Large Scale Machine Learning with Privacy Guarantees PIs: A. Wachter-Zeh (TUM), D.Gunduz (ICL); TUM-ICL Joint Academy of Doctoral Studies (JADS)
SucheHinweis: Die „Schnellsuche“ findet nur Text in den angezeigten
Feldern; nicht in Abstracts oder Schlagwörtern. Der Suchbegriff muss mindestens
3 Buchstaben lang sein.
Knolle, Moritz; Ziller, Alexander; Usynin, Dmitrii; Braren, Rickmer; Makowski, Marcus R.; Rueckert, Daniel; Kaissis, Georgios: Differentially private training of neural networks with Langevin dynamics for calibrated predictive uncertainty. 2021 mehr…
Meissen, Felix; Kaissis, Georgios; Rueckert, Daniel: Challenging Current Semi-Supervised Anomaly Segmentation Methods for Brain MRI. 2021 mehr…
Paetzold, Johannes C.; McGinnis, Julian; Shit, Suprosanna; Ezhov, Ivan; Büschl, Paul; Prabhakar, Chinmay; Todorov, Mihail I.; Sekuboyina, Anjany; Kaissis, Georgios; Ertürk, Ali; Günnemann, Stephan; Menze, Bjoern H.: Whole Brain Vessel Graphs: A Dataset and Benchmark for Graph Learning and Neuroscience (VesselGraph). 2021 mehr…
Thalheim, Jörg; Unnibhavi, Harshavardhan; Priebe, Christian; Bhatotia, Pramod; Pietzuch, Peter: rkt-io: a direct I/O stack for shielded execution. Proceedings of the Sixteenth European Conference on Computer Systems, ACM, 2021 mehr…
Volltext (
DOI
)
Usynin, Dmitrii; Ziller, Alexander; Makowski, Marcus; Braren, Rickmer; Rueckert, Daniel; Glocker, Ben; Kaissis, Georgios; Passerat-Palmbach, Jonathan: Adversarial interference and its mitigations in privacy-preserving collaborative machine learning. Nature Machine Intelligence 3 (9), 2021, 749-758 mehr…
Volltext (
DOI
)
Ziller, Alexander; Usynin, Dmitrii; Braren, Rickmer; Makowski, Marcus; Rueckert, Daniel; Kaissis, Georgios: Medical imaging deep learning with differential privacy. Scientific Reports 11 (1), 2021 mehr…
Volltext (
DOI
)