SENTIMENT

Sichere intime Kommunikation mit Chatbots

Scherenschnittartige Darstellung eines Gesichts
Intime Selbstoffenbarung in der Kommunikation mit Chatbots muss sicher gestaltet werden und die privaten Daten von Nutzenden schützen. © Joel Baumann

Motivation

Dank großer Sprachmodelle haben Chatbots in letzter Zeit erhebliche Qualitätssprünge gemacht. Mittlerweile können solche Dialogsysteme natürlich wirkende Antworten auf verschiedenste Anfragen generieren, auf Nachfragen eingehen und auch längere Gesprächsverläufe entstehen lassen. Dadurch kommt die Interaktion mit Chatbots einem authentischen Austausch mit einem Menschen immer näher. In Deutschland kommunizieren immer mehr Nutzende regelmäßig mit Chatbots. Hierbei verschwimmen häufig die wahrgenommenen Grenzen zwischen Künstlicher Intelligenz (KI) und realem Kommunikationspartner. Unternehmen hinter einigen Applikationen nutzen diese Grauzone schon jetzt bewusst aus und bewerben ihre Produkte mit dem Schlagwort „KI-Freund“. In solchen Anwendungen können Nutzende zum Beispiel einen romantischen Beziehungsmodus aktivieren, der es erlaubt, mit einer zuvor konfigurierten künstlichen Person emotionale (Video-)Gespräche zu führen. Chatbots können somit auch interpersonelle intime Kommunikation simulieren. Hierunter fallen Worte der Selbst-offenbarung, der Bestätigung, des Vertrauens und der Zuneigung. Dadurch schenken Nutzende den Systemen Vertrauen und offenbaren intime, persönliche Details. Bisher wurde dieser Aspekt der digitalen Intimität im Rahmen der Privatheitsforschung jedoch kaum untersucht.

Ziele und Vorgehen

Ziel des Projekts „Sichere Selbstoffenbarung bei intimer Kommunikation mit Dialogsystemen“ (SENTIMENT) ist es, interdisziplinär zu erforschen, welche Prozesse bei der Kommunikation mit Chatbots wirken, wenn Menschen sensible bzw. intime Informationen preisgeben. Hierzu arbeiten Forschende aus Psychologie, Informatik, Rechtswissenschaften und Kunst zusammen. Basierend auf einer Bestandsaufnahme intimer Selbstoffenbarung in Kommunikationssituationen mit Chatbots führen die Forschenden eine Risikobewertung hinsichtlich Datenschutz und Selbstbestimmung der Nutzenden durch. Daraus leiten sie zielgerichtet Privacy-by-Design-Mechanismen ab, um den zuvor identifizierten Risiken entgegenzuwirken, und evaluieren diese im Rahmen einer empirischen Studie. Zudem bezieht das Projektteam die Öffentlichkeit in die Arbeiten ein. Dies geschieht etwa durch eine Kunstausstellung zum Thema „Schutz von intimer Kommunikation“, gestaltet als Dialogforum, bei dem die Forschenden mit der Öffentlichkeit in den Austausch treten und die gewonnenen Erkenntnisse wiederum in das Vorhaben einfließen lassen.

Innovationen und Perspektiven

Die im Vorhaben geleistete Forschung trägt dazu bei, dass Bürgerinnen und Bürger bei der Nutzung von Chatbots intime Schutzräume finden, in denen eine sichere Selbstoffenbarung möglich ist. Durch die Entwicklung von geeigneten Privacy-by-Design-Ansätzen für Chatbots erhalten Nutzende die Kontrolle und Souveränität über ihre intimen privaten Daten, was maßgeblich dazu beiträgt, die europäischen Werte und Grundrechte jedes einzelnen Menschen im Zusammenhang mit digitalen Technologien zu wahren.