11/04/2025 | Press release | Distributed by Public on 11/04/2025 08:11
Neue Anforderungen an IT-Sicherheit durch generative KI und Large Language Models / Bedrohungen erkennen, Schwachstellen schließen - Penetration Testing als wirksame Maßnahme / Neues Whitepaper mit Handlungsempfehlungen für Unternehmen / https://www.tuv.com/pentest
Generative Künstliche Intelligenz (KI) revolutioniert nicht nur zahlreiche Branchen, sie schafft auch neue Angriffsflächen und sicherheitstechnische Herausforderungen - etwa, wenn Unternehmen große Sprachmodelle in Chatbots, Assistenzsystemen oder automatisierten Entscheidungsprozessen einsetzen. Doch welche spezifischen Risiken entstehen bei der Nutzung von Large Language Models (LLMs)? Darauf geht TÜV Rheinland im aktuellen Whitepaper "Ist Ihr KI-System sicher?" ein. Zudem zeigen die Cybersecurity-Fachleute, wie Unternehmen ihre KI-Anwendungen effektiv absichern können.
Angriffe durch manipulierte Eingaben und Trainingsdaten möglich
Das Whitepaper beschreibt, wie KI-Systeme angegriffen werden können. Ein Beispiel sind sogenannte Prompt Injections, bei denen Angreifer mit ihrer Eingabe das Modell manipulieren, damit es sich unvorhersehbar verhält oder Informationen preisgibt - und zwar solche, die nicht zugänglich sein sollten. Weitere Risiken sind der unsichere Umgang mit den Ergebnissen der generativen KI - etwa, indem Nutzer nicht validierte Codes ausführen - und die Manipulation von Trainingsdaten durch einen Angreifer.
Sowohl Angriffe als auch der falsche Umgang mit KI-Ergebnissen können fatale Folgen haben: von Datenlecks über fehlerhafte Entscheidungen bis hin zu wirtschaftlichen Schäden. Daher ist ein systematisches Risikomanagement für Unternehmen unerlässlich - nicht zuletzt fordern dies auch zunehmend Regulierungen wie der EU AI Act. "Unternehmen müssen ihre Sicherheitskonzepte anpassen, um den Risiken von KI-Systemen gerecht zu werden", erklärt Daniel Hanke, Experte für KI-Sicherheit bei TÜV Rheinland.
Penetration Testing als Schlüssel zur KI-Sicherheit
Eine der wirksamsten Maßnahmen, um Bedrohungen frühzeitig zu erkennen und Schwachstellen zu schließen, ist das Penetration Testing (Pentest): Im kontrollierten Rahmen simulieren Fachleute dabei Angriffe auf KI-Systeme, um potenzielle Schwachstellen zu identifizieren und zu beheben. Methoden wie Black-Box- und Gray-Box-Tests werden dabei an die Anforderungen von generativer KI angepasst. "KI-Systeme sind komplex und intransparent. Das erfordert neue Testansätze. Durch regelmäßige Penetration Tests können Unternehmen ihre Systeme widerstandsfähig machen und somit regulatorische Vorgaben erfüllen. Außerdem stärken sie so das Vertrauen von Partnern und Kunden", so Hanke weiter.
Generative KI: Innovationskraft mit Verantwortung
TÜV Rheinland unterstützt Unternehmen umfassend beim sicheren Einsatz von KI - von der Durchführung professioneller Penetration Tests über datenbasierte Risikoanalysen bis hin zur Zertifizierung nach international gültigen Standards wie der ISO 42001. "Wer die Chancen generativer KI nutzen will, muss ihrer Sicherheit oberste Priorität einräumen. So lässt sich das Potenzial dieser Technologien verantwortungsvoll erschließen", betont KI-Experte Daniel Hanke.
Weitere Informationen sowie das Whitepaper unter: https://www.tuv.com/pentest.