Masterclass Künstliche Intelligenz

Vertrauenswürdige KI: Wie Confidential GPT sensible Daten schützt

10.09.2025
13:00 - 13:45
Raum S | Level 2

Neben den offensichtlichen Vorteilen bergen LLM-Anwendungen Risiken beim Umgang mit sensiblen Prompts, die in bestimmten Anwendungsfällen vertrauliche Daten enthalten können und durch Fehler, Angriffe oder öffentliche Schnittstellen ungewollt preisgegeben werden. Betreiber haben meist technischen Zugriff auf Prompts und Modelle, was in bestimmten Domänen (z. B. im öffentlichen Sektor und im E-Health-Bereich) die Akzeptanz mindert. Confidential-Computing-Verfahren bieten dafür eine Lösung, indem die sensiblen Systemkomponenten in verschlüsselten Umgebungen ausgeführt werden und den Betreibern dadurch der Zugriff auf die Prompt-Inhalte entzogen wird. Dies führt wiederum dazu, dass weitere Anwendungsfälle im LLM-Bereich, die zuvor aus Datenschutz- und Compliance-Gründen nicht zulässig waren, nun ermöglicht werden.

Themen & Technologien
Cyber Security Cloud Computing

Deine Impulsgeber:innen

Die Köpfe, die dir frische Ideen und neue Perspektiven liefern.

Powered by Partner

Die Innovatoren hinter dieser Session.

Deutsche Telekom
Deutsche Telekom