PiLock

Mehr Sicherheit beim Einsatz von künstlicher Intelligenz

Im Projekt PiLock kommen neueste Forschungserkenntnisse aus dem Bereich Adversarial Machine Learning zur Anwendung.© Adobe Stock/Siarhei

Motivation

Künstliche Intelligenz (KI) wird mittlerweile in vielen Branchen eingesetzt und erlangt zunehmend volkswirtschaftliche Relevanz. Die Funktionsweise von KI-Systemen basiert auf mathematischen Modellen, die häufig die Grundlage für Produkte und ganze Unternehmenskonzepte bilden. Für eine vertrauenswürdige und sichere Anwendung der KI-Systeme ist es daher besonders wichtig, diese Modelle vor Manipulation und Diebstahl zu schützen. Bedrohungen für die Sicherheit solcher Systeme werden innerhalb der Forschungscommunity im Hinblick auf eine Reihe spezifischer Angriffsmodelle diskutiert. Mittels verschiedenartiger Methoden können Dritte nämlich KI-Modelle unrechtmäßig kopieren, manipulieren oder die Funktionalität in erheblichem Maße beeinträchtigen. Dies birgt ökonomische Risiken für die geschädigten Unternehmen und kann erhebliche negative Auswirkungen für individuell Betroffene nach sich ziehen.

Ziele und Vorgehen

Im Projekt „Sicherer Schutz für KI-Systeme“ (PiLock) wird eine Technologie entwickelt, die solchen Gefahren entgegenwirkt. Mittels maschinellen Lernens und kryptographischer Verfahren sollen KI-Modelle gegen mehrere im wissenschaftlichen Diskurs diskutierte Angriffsvarianten verteidigt werden. Dies betrifft unter anderem Angriffe, die auf einen Diebstahl der Modelle abzielen, die KI-Systeme zu falschen Entscheidungen bewegen könnten oder die Einsicht in die prozessierten Daten ermöglichen. Die Forschungsarbeit im Projekt zielt darauf ab, größtmöglichen Schutz bei möglichst niedriger Beeinträchtigung der Performanz der entsprechenden KI-Modelle zu erzielen. Daher wird das konzipierte Sicherheitsverfahren mit einer Reihe erster Anwendungspartner implementiert und im Hinblick auf Skalierbarkeit und Fortentwicklung geprüft.

Innovationen und Perspektiven

Die Technologie, die PiLock zugrunde liegt, kann branchenübergreifend eingesetzt werden. Perspektivisch erhalten Unternehmen somit die Möglichkeit, ihre KI-Modelle wirksam als Geschäftsgeheimnisse vor Diebstahl zu schützen. Finanzunternehmen beispielsweise automatisieren mithilfe von KI-Modellen die Kreditwürdigkeitsprüfung. Die Entwicklung entsprechender Software kostet viel Zeit und Geld. Die im Projekt entwickelte Technologie schützt diese Investitionen. Darüber hinaus können bösartige Auswirkungen auf Endnutzende von KI-basierten Produkten effektiv verhindert werden, indem Manipulationen und Funktionsstörungen der KI-Systeme verhindert werden. Beim Einsatz von KI zur Erkennung spezifischer Krankheitsbilder in der Medizin beispielsweise, sind manipulative Einflüsse auf die Klassifikation von Tumorzellen ein reales Gesundheitsrisiko für Menschen in Behandlung. Die entwickelte Technologie erschwert derartige Einwirkungen Dritter erheblich und trägt somit zur allgemeinen Sicherheit und Vertrauenswürdigkeit von KI-Systemen bei.

ZUWENDUNGSBESCHEID