
Adaptive Sicherheit für souveräne KI und große Sprachmodelle
Große Sprachmodelle (Large Language Models, LLM) sind weit verbreitet, doch die meisten Lösungen sind proprietär und werden von großen Technologieunternehmen entwickelt. Da die Sprachmodelle in der Regel vom Anbieter betrieben werden, müssen sich Nutzende auf die Vertrauenswürdigkeit und Sicherheit des Anbieters verlassen. In vielen Organisationen fallen jedoch vertrauliche Daten an, die nicht an externe Dienstleister weitergegeben werden dürfen. Zwar können einige LLM auch lokal in kontrollierten Umgebungen betrieben werden. Für kleine und mittlere Unternehmen ist es allerdings nicht möglich, die notwendige Infrastruktur für deren Betrieb und die Absicherung bereitzustellen. Breit verfügbare, leicht einzusetzende Lösungen, die unabhängig von großen Anbietern sind, existieren bisher nicht.
Im Projekt „sequiSAS“ soll eine Sicherheitsarchitektur entwickelt werden, die ein Sprachmodell innerhalb einer sogenannten Sandbox isoliert. Ein- und ausgehende Daten können dann automatisch überprüft werden, um unerwünschte Datenströme zu verhindern, und die Einhaltung von Richtlinien zu erzwingen, welche zum Beispiel von organisationsinternen Vorgaben oder dem EU-Gesetz zur künstlichen Intelligenz abgeleitet werden. So wird die Datenhoheit der Organisation geschützt. Zudem soll eine Plattform entwickelt werden, mit der die Sandbox verwaltet und in Echtzeit überwacht werden kann. Die Architektur soll mit hohen Sicherheitsstandards vorkonfiguriert werden, aber auch dynamisch auf die Anforderungen der Nutzenden reagieren können und sich selbst basierend auf neuen Bedrohungsinformationen anpassen.
Die Architektur ermöglicht Nutzenden eine größere Kontrolle über die Daten, die Sprachmodelle nutzen und erzeugen. Dies ermöglicht auch kleinen Organisationen, LLM ohne Sicherheitsbedenken und unabhängig von Technologiekonzernen zu verwenden. Indem die Plattform bei der Umsetzung von Regularien unterstützt, wird die technologische Souveränität kleiner Organisationen gestärkt.