Künstliche Intelligenz sicher nutzen – aber wie?

Wie sich Künstliche Intelligenz (KI) verantwortungsvoll einsetzen lässt und welche Chancen und Risiken sich dadurch für die Cybersicherheit ergeben, diskutierten Experten aus Wissenschaft und Wirtschaft in einer Session bei der Nationalen Konferenz IT-Sicherheitsforschung. Zur Sprache kamen Risiken, überhöhte Erwartungen – und Wege zu mehr Sicherheit im Umgang mit intelligenten Technologien.

Prof. Dr.-Ing. habil. Gerhard Wunder führte als Moderator durch die Session.
Prof. Dr.-Ing. habil. Gerhard Wunder führte als Moderator durch die Session. © BMFTR, Laurin Schmid / bundesfoto© BMFTR, Laurin Schmid / bundesfoto

Moderation:

  • Prof. Dr.-Ing. habil. Gerhard Wunder, Leiter Arbeitsgruppe Cybersicherheit und KI (C-KI) an der Freien Universität Berlin

Sprecherinnen und Sprecher:

    • Prof. Dr. Mario Fritz, leitender Wissenschaftler am CISPA Helmholtz-Zentrum für Informationssicherheit
    • Prof. Dr. phil. Rainer Mühlhoff, Leiter Forschungsbereich Ethik und kritische Theorien der Künstlichen Intelligenz am Institut für Kognitionswissenschaft der Universität Osnabrück
    • Claudia Pohlink, Chief Data Officer, FIEGE Logistik Stiftung & Co. KG
    • Prof. Dr. Konrad Rieck, Fachgebietsleitung Maschinelles Lernen und IT-Sicherheit am Berlin Institute for the Foundations of Learning and Data (BIFOLD) der Technischen Universität Berlin

    In der Session „Chancen und Risiken von Künstlicher Intelligenz – Sichere Nutzung intelligenter Technologien“ diskutierten die Teilnehmenden über die Ambivalenz generativer KI. Denn diese stellt die Cybersicherheitsforschung vor doppelte Aufgaben: Auf der einen Seite eröffnet sie neue Möglichkeiten für die Verteidigung – etwa bei der frühzeitigen Erkennung von Bedrohungen oder der automatisierten Analyse von Schwachstellen. Auf der anderen Seite schafft sie neue Angriffsvektoren, die klassische Sicherheitsprinzipien untergraben. Klar wurde: Weder Euphorie noch Schwarzmalerei helfen weiter – gefragt sind realistische Einschätzungen, exzellente Forschung und politisches Handeln.

    Cybersicherheit im KI-Zeitalter

    Prof. Dr. Mario Fritz (CISPA) eröffnete die Session mit einem Überblick zu den sicherheitstechnischen Herausforderungen generativer KI. So betonte er etwa die strukturellen Zielkonflikte: KI-Modelle beziehen ihre Daten aus öffentlichen Quellen, ihre Schnittstellen sind webbasiert – dies sind klassische Angriffsflächen für Cyberbedrohungen. Zugleich zeige sich großes Potenzial für den Einsatz von generativer KI im Sinne der Sicherheit: etwa bei der Erkennung von Angriffsmustern oder bei automatisierten Schutzsystemen. Fritz plädierte für mehr Forschung zu systemischer Sicherheit und zur Angriffstoleranz komplexer KI-Systeme.

    Prof. Dr. Mario Fritz hielt den Einführungsvortrag „Bedrohungsszenario KI – was steckt wirklich dahinter?“.
    Prof. Dr. Mario Fritz hielt den Einführungsvortrag „Bedrohungsszenario KI – was steckt wirklich dahinter?“. © BMFTR, Laurin Schmid / bundesfoto

    KI verstehen, bevor man ihr vertraut

    Prof. Dr. Konrad Rieck (TU Berlin) stellte mit AIgenCY ein aktuelles BMFTR-gefördertes Forschungsprojekt vor, das generative KI im Spannungsfeld zwischen Angriff und Verteidigung untersucht – von Deepfakes über Prompt Injection bis zu neuen Testmethoden für Systemresilienz. Eine Studie zeige: Viele Menschen könnten schon heute KI-generierte Inhalte nicht mehr von realen unterscheiden. Rieck warb deshalb für technische Lösungen zur Markierung und Kontextualisierung – sowie für robuste, erklärbare Systeme: „Wir müssen KI nicht nur sicher machen – wir müssen auch verstehen, wie sie zu Entscheidungen kommt.“

    Prof. Dr. Konrad Rieck gab Einblicke in das Projekt AIgenCY.
    Prof. Dr. Konrad Rieck gab Einblicke in das Projekt AIgenCY.© BMFTR, Laurin Schmid / bundesfot

    Realitätscheck: KI in der Unternehmenspraxis

    Claudia Pohlink schilderte die Herausforderungen im Mittelstand. Viele Unternehmen hätten nicht die Ressourcen, um KI sicher zu entwickeln beziehungsweise einzusetzen. Daten seien häufig unsortiert, Infrastrukturen heterogen und veraltet. Ihre Forderung: ein praxisorientierter Kompetenzaufbau – durch gezielte Aufklärung, Führungskräfteschulungen oder einen „KI-Führerschein“ für Entscheiderinnen und Entscheider. Ihre Diagnose: „Das Wissen über KI fehlt – nicht nur in der IT, sondern vor allem im Management.“

    Claudia Pohlink sprach über Herausforderungen des Mittelstands beim KI-Einsatz.
    Claudia Pohlink sprach über Herausforderungen des Mittelstands beim KI-Einsatz. © BMFTR, Laurin Schmid / bundesfoto

    Machtfragen, Hype und ethische Perspektiven

    Prof. Dr. Rainer Mühlhoff warf einen kritischen Blick auf die ökonomischen Kräfte hinter dem KI-Trend. Viele Entwicklungen seien durch Marketing und ökonomische Interessen getrieben – weniger durch tatsächlichen gesellschaftlichen Bedarf. Er forderte mehr Transparenz über die Akteursinteressen und eine stärkere ethische Rahmung der Debatte: „KI ist längst ein Machtprojekt – das müssen wir in der Forschung mitreflektieren.“

    Die Session zeigte: Sicherheit in der KI ist kein rein technisches Thema – sie betrifft zudem Governance, Ethik, Bildung und Infrastruktur. Es braucht verbindliche Regeln, verständliche Werkzeuge und einen ehrlichen Umgang mit Grenzen. Cybersicherheitsforschung kann hier Brücken schlagen – zwischen Technologieentwicklung und gesellschaftlicher Verantwortung.