Validaitor

Sicherheit und Vertrauen für Künstliche Intelligenz

Icon eines Schloss vor vor Zahlenreihen zur Darstellung eines Virenschutzkonzeptes gegen Hackerangriffe
Neuartige Werkzeuge werden benötigt, um die mit ML-Modellen verbundenen Cybersicherheitsrisiken zu überwachen, zu bewerten und Cyberangriffe zu verhindern. © Adobe Stock / adrian_ilie825

Motivation

In den letzten zwei Jahrzehnten haben KI-Ansätze auf Basis von Machine Learning (ML) in vielen Bereichen enorme Erfolge erzielt. Sie werden beispielsweise im Gesundheitswesen, in der Mobilität, für Marketingzwecke oder für verschiedenste Arten von digitalen Assistenten eingesetzt. Mit der vermehrten Anwendung von ML-Modellen gehen aber auch zunehmend Risiken einher. Von besonderer Bedeutung sind die sogenannten “adversarial attacks“, die mit Hilfe von modifiziertem Dateninput die Algorithmen des Machine Learnings so manipulieren, dass die Modelle entweder nicht mehr gut funktionieren oder so umfunktioniert werden, dass sie den Zwecken des Angreifers dienen. Sie können dann beispielweise private Informationen offenlegen oder unfaire Entscheidungsfindungen bewirken. Um ML-Modelle vor Hacking-Angriffen zu schützen, werden neuartige Werkzeuge benötigt, damit die mit ML-Modellen verbundenen Cybersicherheitsrisiken überwacht, bewertet und Angriffe verhindert werden können.

Ziele und Vorgehen

Ziel des Projekts „Sicherheit und Vertrauen für Künstliche Intelligenz“ (Validaitor) ist es, eine Softwareanwendung für das Qualitäts- und Risikomanagement von KI-Systemen zu entwickeln. Um die Sicherheit der mit KI entwickelten Systeme zu gewährleisten, erarbeiten die Forschenden Methoden zum automatisierten und sicheren Testen und Validieren der zugrunde liegenden ML-Modelle. Darüber hinaus soll die anvisierte Plattform Überwachungsfunktionen zur Verfügung stellen, die es den KI-Praktikern ermöglichen, die Sicherheitslücken ihrer KI-Modelle zu bewerten und Maßnahmen zur Risikominimierung zu ergreifen. Best Practices aus der Forschung werden dafür an reale Gegebenheiten angepasst und Unternehmen erhalten die Möglichkeit, ihre KI-Modelle effektiv auf Sicherheitsrisiken zu testen.

Innovationen und Perspektiven

Die im Rahmen des Projektes anvisierte Validaitor-Plattform wird eine der ersten Softwareanwendungen sein, die alle kritischen Testkategorien in einer einzigen Plattform zusammenbringt. Validaitor soll Module für sicherheitsbezogene Tests, Fairness-Tests, Datenschutztests und Datendrifttests für ML-Modelle unterstützen. Eine Innovation besteht darin, dass die Plattform das Monitoring und das Testen von ML-Systemen vereint und damit sowohl als KI-Sicherheits- als auch als Compliance-Tool für KI-Systeme dient. Die Unternehmen können sich mithilfe des Tools außerdem frühzeitig mit den geplanten EU-Vorschriften für KI auseinandersetzen, die für den Einsatz von KI sowohl Tests als auch ein entsprechendes Monitoring fordern. Damit bietet die Plattform insbesondere kleinen und mittleren Unternehmen einen Mehrwert: Sie können ihre Prozesse effizienter gestalten, erhalten eine sichere, kostensparende Lösung und können komplexe ML-Testtechniken verwenden, ohne hierfür spezialisierte Expertinnen oder Experten einstellen zu müssen.