Innovation und Digitalisierung
Künstliche Intelligenz – Eine Technologie als Fluch und Segen für die IT-Sicherheit
Der Begriff “Künstliche Intelligenz“ (KI) ist nicht nur als Mode-Begriff in den Medien allgegenwärtig. Er ist bereits heute in vielen konkreten Anwendungsszenarien präsent – weit über das berühmte selbstfahrende Auto hinaus. Im Hinblick auf die IT-Sicherheit stellen sich die Fragen: Welchen IT-Sicherheits-Gefahren sieht sich KI ausgesetzt? Welche Unterstützung kann KI gegen Cyberattacken leisten? Und im Umkehrschluss auch: Welche Cyberattacken können von KI ausgehen?
Autonome Fahrzeuge, Roboter, vernetzte Waschmaschinen: Die Digitalisierung schreitet voran und erhöht damit die Anzahl potenzieller IT-Sicherheitslücken und Angriffsziele. Dank Künstlicher Intelligenz wachsen aber auch die Chancen, IT-Bedrohungen zu erkennen und dagegen vorzugehen. Unter „Künstlicher Intelligenz“ (KI / auch: Artificial Intelligence - AI) versteht man die Automatisierung intelligenten Verhaltens bis hin zum eigenständigen Lösen von Aufgaben und Problemen. Maßgeblich ist der Aspekt des maschinellen Lernens: KI kann strukturierte und unstrukturierte Daten analysieren, Schemata erkennen und darauf aufsetzend ständig lernen und sich fortentwickeln. Im Deep Learning werden künstliche neuronale Netze geschaffen, die wie ein Gehirn aufgebaut sind und über Knotenpunkte Informationen austauschen. Im Ergebnis führt KI zu automatisierten Entscheidungsvorgängen, die bislang menschlicher Intelligenz vorbehalten waren.
Von Dartmouth zu Alexa
Als Geburtsstunde der Künstlichen Intelligenz gilt die Dartmouth-Konferenz im Jahre 1956 mit Wissenschaftlern verschiedener Disziplinen. Einen Höhenflug erlebt sie allerdings erst in den letzten Jahren durch das Aufkommen von Vernetzung, hoher Rechnerleistung und Big Data. Besonders spektakulär erscheint das autonome Fahren, das per computergestütztem Lernen den PKW womöglich sicherer durch den Straßenverkehr steuern könnte als mancher Mensch. Hier zeigen sich jedoch auch die aktuellen Grenzen der Realisierbarkeit, attestiert doch der Ergebnisbericht des vom BMWi geförderten Projekt Pegasus für automatisiertes Fahren eher dem Menschen eine sicherheitsförderliche vorausschauende Fahrweise, welche zumindest aktuell nicht von KI gesteuerten Verfahren vollständig übernommen werden kann. In der medizinischen Diagnostik, etwa in der Dermatologie oder Radiologie, erkennen Algorithmen auffällige Befunde mitunter jedoch schon heute ebenso gut wie Ärzte oder sogar besser. Mit Hilfe von KI-Technologien analysieren Versicherungen das Risiko-Verhalten ihrer Kunden und leiten daraus angepasste Tarife ab. Marketing und Vertriebsplattformen nutzen KI für zielgruppen-basierte Werbung. Auch im Militär, in der Logistik, im Bankenwesen, im Energiesektor und vielen weiteren Branchen kommen die modernen Verfahren zum Einsatz. Schon heute ist KI mit dem Amazon-Sprachassistent Alexa im Alltag vieler Menschen angekommen, mit allen Nebenwirkungen bzgl. der Transparenz privater Vorlieben. Bei aller Effektivität und Effizienz sollte KI stets im Dienst menschlicher Vorgaben stehen und muss dazu kontinuierlich überwacht werden. Dies bedeutet, etwaige diskriminierende Ergebnisse - solche könnten etwa bei der Beurteilung von Kreditwürdigkeit oder der Sozialprognose bestimmter Personengruppen eine Rolle spielen – kritisch zu verfolgen. Damit KI-Technologie Vertrauen entgegengebracht wird, muss diese verlässlich und gegen Manipulationen geschützt sein.
KI als Gegenstand von Cyberattacken
Künstliche Intelligenz wird oft für Geräte des Internet-of-Things (IoT) eingesetzt: Physische und virtuelle Gegenstände werden miteinander vernetzt und arbeiten mit Hilfe von Informations- und Kommunikationstechnologien zusammen. Hierbei müssen sich zum einen die verbundenen Elemente gegenseitig identifizieren können. Zum anderen ist ein unerlaubter Zugriff von außen zu verhindern. Authentizitätsschutz, verschlüsselte Datenübertragung und Schutz vor Sicherheitslücken sind daher essentiell. Plastische Beispiele für Angriffsszenarien sind die „Fremdübernahme“ eines selbstfahrenden Autos oder elektronisch gesteuerter medizinischer Geräte, beispielsweise eines OP-Roboters. Je komplexer und automatisierter die Systeme, desto verheerender wirkt sich ein missbräuchlicher Zugriff durch unbefugte Dritte aus: Diese für vernetzte Wertschöpfungsketten im Rahmen von Industrie 4.0 geltende Regel spielt für KI-Technologien eine mindestens ebenso große Rolle. Angriffe von außen können von Hackern oder Schadsoftware ausgehen. Angriffe von innen können von unabsichtlich oder vorsätzlich handelnden Mitarbeitern stammen. In diesem Zusammenhang sind insbesondere kompromittierte Identitäten von Mitarbeitern, also per Identitätsdiebstahl erbeutete Zugriffsrechte, eine Gefahr. Privilegierte Zugänge mit weitreichenden Zugriffsrechten sind oft das Ziel von Cyberattacken. Ein „Privileged Access Management“ (PAM) kann dann dabei helfen, die Auswirkungen zu reduzieren, indem es dedizierte Regeln für die Nutzung der erweiterten Rechte technisch erzwingt und Zugriffe protokolliert und auswertet.
Menschliche Lauscher bei Alexa
Anfang April 2019 wurde bekannt, dass mitunter Amazon-Mitarbeiter zuhören, wenn sich der Sprachassistent „Alexa“ mit Kunden unterhält und private Informationen von ihnen empfängt. Dabei handelt es sich natürlich nicht um einen bewussten Cyber-Angriff. Vielmehr zeigt sich daran, dass Datenschutz und KI in einem Spannungsverhältnis zueinander stehen: Je mehr echte Nutzerdaten KI zur Verfügung hat, umso effektiver kann sie diese auswerten, verknüpfen und für den Nutzer verwerten. Andererseits ist dabei schwer abzusehen, welche Ergebnisse daraus erwachsen und ob diese immer im Sinne des Kunden sind. KI-Anbieter sollten daher unbedingt strenge Compliance und Sicherheitsrichtlinien definieren und einhalten müssen, um personenbezogene Daten zu schützen.
KI als Unterstützung gegen Cyberattacken
Manche Menschen verbinden mit KI die Sorge, dass die Technik immer mehr menschliche Arbeitsplätze übernehmen könnte. Im Bereich der IT-Security, wo ständig zunehmende Herausforderungen auf notorischen Personalmangel treffen, liegt genau darin eine große Chance: Um Schadsoftware, Angriffe auf mobile Endgeräte oder gezielte Phishing Angriffe auf einzelne Personen und Abteilungen abzuwehren, kann die Technologie Mitarbeiter entlasten und beim IT-Schutz unterstützen. Insbesondere Verfahren des Maschinellen Lernens (ML), einem Teilgebiet der künstlichen Intelligenz, können bei der Entwicklung sicherer IT-Systeme, die sich lernend auf Bedrohungen einstellen, helfen. Wenn große Datenmengen zu analysieren und Anomalien aufzuspüren sind, eignen sich ML-Verfahren grundsätzlich gut. Dem geht freilich ein hoher Aufwand für das Trainieren der Systeme voran.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) erprobt und untersucht die Verwendung von KI-Methoden in verschiedenen Gebieten der IT-Sicherheit, beispielsweise bei der Anomalie- und Angriffsdetektion in Kommunikationsnetzen. 2018 führte das BSI eine Veranstaltungsreihe „Expertenworkshop Maschinelles Lernen“ durch. 2019 wurde ein KI-Kompetenzzentrum im BSI gebildet und als eigene Organisationseinheit etabliert. Das Bundesministerium für Bildung und Forschung (BMBF) hat Forschungsvorhaben zum Thema „Künstliche Intelligenz und IT-Sicherheit“ zur Förderung ausgeschrieben und fördert auch das Deutsche Forschungszentrum für künstliche Intelligenz (DFKI), eine öffentlich-private Partnerschaft. Internationale Fachkonferenzen zum Thema sind zum Beispiel der regelmäßige ACM Workshop on Artificial Intelligence and Security im Rahmen der ACM Conference on Computer and Communications (CVS) oder das International Symposium on Cyber Securtiy Cryptography and Machine Learning (CSCML).
IT-Angriffe ändern sich ständig. Bislang sind in der IT-Sicherheit aber reaktive Schutzkonzepte in der Überzahl: Virenscanner und Firewalls überprüfen Daten auf bekannte Malware, Hacking-Trends und Sicherheitslücken, nach neuen Sicherheitsvorfällen muss ein entsprechendes Update eingespielt und ausgeliefert werden. KI erlaubt eine proaktive Umkehr, indem sie einschlägige Auffälligkeiten für Sicherheitsvorfälle auch eigenständig analysieren, dokumentieren und Bedrohungen (zumindest teilautomatisiert) abwehren kann. Viele Anbieter von Cyber-Security-Lösungen setzen KI-Komponenten in ihrer Software ein – in unterschiedlichem Automatisierungs-Grad:
- Beim Schutz gegen Schadprogramme arbeiten viele Antivirensysteme mit Schadprogramm-Signaturen, die aus Effizienzgründen nur Hashwerte verwalten. Selbst geringe Änderungen von Schadprogrammen führen zu neuen Hashwerten, so dass ähnliche Schadprogramme parallel geführt werden. Im Gegensatz zu solchen regelbasierten Systemen können ML-Systeme, nachdem sie mit „guten“ und „bösen“ Daten trainiert wurden, auch Malware-Muster erkennen und Ergebnisse gewichten.
- Auch bei der Erkennung von IT-Einbrüchen mittels Intrusion Detection Mechanismen kann ML zum Einsatz kommen: Da die Aufzeichnung und Analyse der Netzwerkkommunikation ein riesiges Datenvolumen und eine hohe Zahl potenzieller Angriffsalarme produziert, können KI- und ML-Systeme bei der automatisierten Auswertung helfen. Denkbar sind sogar ML-Modelle, die Ereignisse und Verwundbarkeiten in der Zukunft prognostizieren.
- ML bietet auch die Möglichkeit, bestehende Methoden zum Detektieren von Botnetzen zu ergänzen. Wissenschaftlern ist es gelungen, mit ML-Verfahren Angriffe von realen Personen von denen durch Botnets auf Honeypots zu unterscheiden und damit auch Informationen zur Herkunft der Botnets zu bekommen.
- Auch als Basis für Security-Schulungen kann KI nützlich sein, indem sie Spear-Phising-Attacken aufdeckt, blockiert und dabei erkennt, welche Mitarbeiter das höchste Gefährdungsrisiko haben. Insbesondere hier besteht allerdings die Herausforderung, die Technologie datenschutzkonform einzusetzen.
- Nicht zuletzt ist KI als Code-Optimierer im Sinne des „Security by Design“-Gedankens wertvoll, wenn Programmcode während der Software-Entwicklung nach Schwachstellen durchsucht wird. ML-basierte Schwachstellen-Scanner erkennen nicht nur bekannte Sicherheitslücken und Einfallstore, sondern auch typische Schwachstellen-Muster. Ein besonders prominentes Beispiel für den KI-Einsatz in der IT-Sicherheit ist der IBM Watson für Cyber Security. Er wurde mit über einer Million sicherheitsbezogener Dokumente „gefüttert“, kombiniert sicherheitsrelevante Informationen aus Blogs, Websites, Forschungspapieren mit Datensätzen zu IT-Sicherheitsvorfällen und erteilt per integriertem Chat-Bot Auskunft an die Kunden zu ihrem aktuellen IT-Sicherheitsstatus und spricht Empfehlungen aus. Auch darüber hinaus werden Methoden des Maschinellen Lernens schon heute in der IT-Sicherheit von verschiedenen Anbietern eingesetzt, beispielsweise bei Antiviren-Programmen oder Anomalie-Erkennungs-Systemen.
KI als Methode von Cyberattacken
Die Kehrseite der Medaille: Nicht nur IT-Sicherheitsspezialisten in Unternehmen, auch Angreifer nutzen die Möglichkeiten der KI, um ihre Angriffe zu optimieren. KI-Technologien sind auch für Internet-Kriminelle zugänglich. Alle Funktionen und Verfahren der KI, die für die Cybersicherheit eingesetzt werden, können sich auch gegen die Cybersicherheit richten. Denkbar ist zum Beispiel
- Sabotage des Maschinellen Lernens durch falsche/feindliche Trainingsdaten
- Aufspüren von Schwachstellen und Patch-Bedarf
- Verbesserung von Schadprogrammen
- Versand personalisierter Phishing-Mails
- „Böse“ KI kann die Gegenmaßnahmen „guter“ KI gegen Sicherheitsangriffe umgehen
Fazit
Nicht nur in Form von selbst fahrenden Autos, intelligenten Suchmaschinen und Sprachassistenten wird KI immer weiter in unser Leben vordringen. Gerade im Dienst der IT-Sicherheit helfen KI-Technologien, Cyberangriffe schnell zu erkennen und zu blockieren oder zumindest auszubremsen. Allerdings sind die Einsatzfelder von Künstlicher Intelligenz und Maschinellem Lernen meist sehr spezialisiert und nicht universell einsetzbar. Aufgrund der hohen Automatisierung lässt sich außerdem nicht immer genau nachvollziehen, was anhand welcher Algorithmen gelernt wurde. Es sollte also nicht vergessen werden, dass KI letztlich nur ein Mittel zum Zweck bleibt und zumindest nach aktuellem Stand stets einer menschlichen Überwachung bedarf.
Quelle: IHK-GfI
Literaturhinweis und Lesetipp:
Dieser Artikel basiert inhaltlich teilweise auf:
Dieser Artikel basiert inhaltlich teilweise auf:
- Katrin Gaßner: Maschinelles Lernen für die IT-Sicherheit. In: Wittpahl, Volker (Hrsg.): Künstliche Intelligenz. 2019. link.springer.com/chapter/10.1007/978-3-662-58042-4_5
- Das Kapitel wurde unter der Creative Commons Namensnennung 4.0 Internation Lizenz veröffentlicht: creativecommons.org/licenses/by/4.0/deed.de