5 min
Lesezeit
Bereicherung und Risikofaktor
Viele Unternehmerinnen und Unternehmer können momentan schwer abschätzen, was der Einsatz von KI für ihre IT-Sicherheit bedeutet. Und damit sind sie nicht allein. Denn auch die Hersteller verschiedenster allgemeiner Software-Lösungen, die die neue Technologie integrieren, kennen häufig deren Schwachstellen nicht hinreichend, meinen Experten. Umgekehrt kann KI aber auch helfen, die Sicherheit zu erhöhen.
KI im Sinne einer eigenständig denkenden, wahrnehmenden Intelligenz, wie etwa ein Mensch, gebe es noch nicht, sagt Amir Hosh, Geschäftsführer der DriveByte GmbH aus Regensburg. „Das, was wir momentan sehen, ist zu 99 Prozen Machine Learning.“ Dennoch würden Unternehmen aktuell mit dem Buzzword „KI“ bombardiert, wenn es um den Vertrieb neuer Lösungen geht. Die intelligente Technik verkauft sich – mit all ihren Risiken und Nebenwirkungen. „Oftmals sind deshalb zum Beispiel in Chatbots KIs verbaut, die die Anbieter selbst nicht genau verstehen“, so der Cybersicherheits-Experte und mahnt, auf gar keinen Fall einfach Dinge aus dem Internet herunterzuladen und einzusetzen.
„Als Unternehmen muss mir bewusst sein, dass ich mir mit KI eine Angriffsfläche aufreiße, die ich nicht verstehe“, sagt Hosh. Dennoch rät er, sich der Entwicklung nicht zu verschließen. Es sei wie bei jedem Hype: Man dürfe ihm nicht ohne Bedacht erliegen und müsse immer genau prüfen, was der eigentliche Business Case sei. Bei der Auswahl der Lösungen empfiehlt er, vor allem bei sogenannten Closed Source-Systemen äußerste Vorsicht walten zu lassen, da dort der Quellcode nicht einsehbar sei. Daneben müsse man sich anschauen, wie der Algorithmus eingerichtet sei. Außerdem sei die Frage bedeutsam, wo die Daten herkommen. „Der Trainingsdatensatz muss sicher und geprüft sein“, betont Hosh.
Manipulation der Trainingsdaten
Denn eine gängige Methode, KIs anzugreifen, sei das sogenannte Data Poisoning. Dabei sorgen „vergiftete“, manipulierte Daten dafür, gezielt Falschaussagen zu generieren. Was nach theoretischem Nischenaspekt klingt, hat bereits ganz real katastrophale Auswirkungen, etwa in der Medizin. Wie verletzlich KI-Systeme sind, zeigte ein Experiment, das eine Gruppe Forschender Ende 2023 in den USA durchführten. „Durch bestimmte Prompts an die ChatGPT-Instanz war es dabei möglich, dem Chat-Bot eigentlich geschützte Trainingsdatensätze zu entlocken. Dies ist äußerst gefährlich, da solche Datensätze auch sehr persönliche und manchmal zu geheim haltende Informationen beinhalten“, weiß der Cybersicherheits-Experte. Doch auch wer vermeintlich nichts Attraktives biete, sei ein Ziel, das würden Mittelständler häufig verkennen. „Wenn ich als Angreifer drei Monate Zeit und Energie investieren muss, um von einem Automobilzulieferer am Ende eine halbe Million Euro zu erpressen, dann tue ich das nicht, wenn ich mit zwei Wochen Arbeit von vierzig KMU jeweils 10.000 Euro einsammeln kann“, sagt Hosh.
KI als Waffe
„Internetkriminalität ist ein Massengeschäft“, weiß auch Dr. Christian Götz, Experte für Informationssicherheit bei der IHK Regensburg. Für dieses Massengeschäft nutzen die kriminellen Angreifer ebenfalls KI, die über Angebote wie ChatGPT, Google Bard oder Microsofts Copilot jedem ohne großen Aufwand zur Verfügung stehen. Mittlerweile gibt es mit WormGPT und FraudGPT sogar Angebote, die sich speziell an die Bedürfnisse von Hacker richten. Hatte man bisher viele Phishing-Mails noch an sprachlichen Fehlern erkannt, ermöglichen diese generativen KIs perfekte Formulierungen in allen gängigen Sprachen. Für die Mitarbeiter wird es immer schwieriger, authentische E-Mails von Phishing-Angriffen zu unterscheiden. Bei gezielteren Angriffen füttert der Angreifer die KI mit Informationen und Texten von Personen und Firmen, um maßgeschneiderte Anfragen, Angebote oder Forderungen zu stellen. „Ich kann mit KI die Social-Media-Aktivitäten einer Person als Grundlage für eine authentisch in deren Schreibstil klingende Mail verwenden“, sagt Götz. „Oder Deepfakes generieren, die Anrufe mit der Stimme des Chefs fingieren und zur Überweisung einer Summe X auf ein Konto Y auffordern“, ergänzt Hosh. Damit bekomme auch der CEO-Fraud eine ganz neue Dynamik.
Selbst das Programmieren von Schadsoftware kann die generative KI übernehmen. Ohne Programmierkenntnisse können so Viren oder zielgerichtete Programme von Laien geschrieben und eingesetzt werden. Allein die Menge und Verschiedenheit der dadurch ermöglichten Angriffsformen macht es den Verteidigern immer schwieriger, Netzwerke und Systeme zu schützen. Am Ende müssen auch sie KI in der Verteidigung einsetzen, um beispielsweise in bestehenden Mustern ungewöhnliche Aktivitäten zu erkennen. „Das Wettrüsten zwischen Hackern und Administratoren wird durch die KI an Dynamik und Geschwindigkeit gewinnen,“ ist sich Götz sicher.
Zahlen im Dunkeln
Die Anzahl der Angriffe, die bereits KI nutzen, ist ebenso wenig bekannt wie der Gesamtschaden, den Cyberkriminalität in der Oberpfälzer Wirtschaft verursacht. Das liegt an der hohen Dunkelziffer und der Scham, die das Thema nach wie vor begleitet. Das bayerische Landeskriminalamt erklärt auf Anfrage dazu, dass sich entsprechende Daten weder über die Polizeiliche Kriminalstatistik (PKS), noch über das Vorgangsverwaltungssystem (IGVP) recherchieren oder auswerten lassen. Jedoch könne die Nutzung von KI vereinzelt in Strafverfahren aufgedeckt werden, etwa im Onlinebetrug: Durch KI-Modelle ließen sich beispielsweise automatisiert und in kürzester Zeit eine Vielzahl an gefälschten Kleinanzeigen erstellen. Zu diesen lassen sich wiederum unfangreiche Rezensionen KI-basiert ergänzen, um die vermeintliche Seriosität des Anbieters zu stärken. Die anschließende „Kundenkommunikation“ könne durch KI so beeinflusst werden, dass auch nicht sprachbegabte Personen grammatikalisch richtige oder mit Dialekt gespickte Antworten geben können.
Cybersicherheits-Experte Hosh rät Unternehmen grundsätzlich, die technische Sicherheit nicht zu vernachlässigen. Gleichzeitig sollte man sich immer vor Augen führen, „dass auch die sicherste Tresortüre nichts nützt, wenn ein Mitarbeiter sie dem Angreifer entweder mutwillig als ‚evil employee‘ oder unbeabsichtigt mangels Bewusstseins öffnet.“ Da letzterer Fallstrick dank KI immer schwerer erkennbar wird, sollten Firmen dringend ihre Belegschaft darin schulen, zum Beispiel KI-generierte Texte zu erkennen. Die Konsequenz dieser Entwicklung fasst IHK-Experte Götz in einem Punkt zusammen: „Wir müssen die Mitarbeiterinnen und Mitarbeiter dazu bringen, grundsätzlich misstrauisch zu sein.“ Das sei zwar im normalen Leben kein erstrebenswerter Charakterzug, im Dschungel des Internets aber die beste Überlebensstrategie.
Autorin: Alexandra Buba