THE RISE OF AI – IM ANGRIFF UND IN DER VERTEIDIGUNG

ChatGPT hat den Hype um AI („Artificial Intelligence“, oder Deutsch KI – künstliche Intelligenz) ausgelöst – nun ist das Thema allgegenwärtig. So neu ist KI aber nicht: schon lange nutzen Cyber Defense Analysten Werkzeug mit Artificial Intelligence. Nun kommt AI aber auch auf der Gegenseite zum Einsatz: denn auch Hacker nutzen den neuen Trend.

Viele Hersteller brüsten sich schon lange damit: Artificial Intelligence bei der Abwehr von Cyber Angriffen. Ob es nun „Machine Learning“ oder echte „künstliche Intelligenz“ ist, zahlreiche Tools haben Mechanismen eingebaut, die Anomalien erkennen und es den Sicherheitsexperten und Analysten einfacher machen. Denn es gilt, Angriffe zu erkennen und abzuwehren und dafür oft gewaltige Datenmengen zu durchforsten – eine Suche nach der Nadel im Heuhaufen, nach dem einen Datenpunkt, der ein bisschen anders ist, als all die anderen. Vielleicht ist es der eine Benutzer, der sich aus einem selten bereisten Land einloggt, oder aber ein Gerät, mit dem noch nie zuvor gearbeitet wurde, vielleicht in Kombination mit einer verdächtigen IP Adresse oder zu ungewöhnlicher, nachtschlafener Stunde. Wo Analysten früher langwierig nach Korrelationen suchten, können KI-gestützte Tools nahezu in Echtzeit Besonderheiten hervorheben, oder – wenn gewünscht – auch Gegenmaßnahmen einleiten: so können Useraccounts deaktiviert, Netzwerkadressen gesperrt oder Geräte in Quarantäne gesetzt werden. Dabei werden KI-Tools Analysten nicht ersetzen können, denn eine manuelle Nachkontrolle bzw. eine Prüfung auf Fehlalarme (‚false positives’) wird stets benötigt. KI-Tools können aber den Analysten-Job bedeutend einfacher und auch schneller machen – und das werden wir auch brauchen!

Die dunkle Seite der Macht

Denn auch die Gegenspieler rüsten auf – auch auf der dunklen Seite der Macht kommt zusehends Artificial Intelligence zum Einsatz.  Denn ebenso wie Sicherheitsforscher beschäftigen sich auch Hacker seit geraumer Zeit mit den Vorteilen der künstlichen Intelligenz. Aus der Vergangenheit kennt man Videos aus dem Internet, wo Großrechner an Universitäten Barack Obama oder anderen Prominenten auf künstlich gerenderten Videos eigentlich nie gesagte Sätze in den Mund legten (https://youtu.be/AmUC4m6w1wo). Schon ab iOS 11 begannen die Apple Emojies bzw. Memojies zu sprechen – zuerst im Chat und dann auch in Facetime. Wem aber Comic-Eule, Einhorn, oder der legendäre „Pile of Poo“ nicht genug sind: Heute genügt die Rechenleistung jedes Mobiltelefons, um Deep Fakes mit Personen zu generieren, und die Software dazu ist auch schon erhältlich.

Und der eine oder andere soll sich dabei sogar in eine Katze verwandelt haben (https://youtu.be/j3M_Ki5U3TE). Dazu liefern nun ChatGPT und Co den perfekten Text zum Betrugsversuch, in einer beliebigen Sprache: Denn strotzten früher die auf englisch angekündigten Erbschaften des Prinz von Zamunda oder das Bittschreiben der swegalesischen Diktatorenwitwe noch von Rechtschreib- und Grammatikfehlern, so kommen betrügerische E-mails und Anrufe heute in perfektem Deutsch, akzent- und fehlerfrei.

Betrugsversuche mit KI

Die wahre Gefahr geht jedoch weit darüber hinaus: Kamen Betrugsanrufe früher aus dem Callcenter und gezielt an einzelne Personen, kann eine KI eine Vielzahl von Mitarbeitern gleichzeitig anrufen. Sie kann in weiterer Folge dynamisch in Echtzeit auf Situationen reagieren (Anruf 1 scheitert, weil Mitarbeiter XY auf Urlaub ist => Anruf 2: „ich wende mich an Sie, weil Mitarbeiter XY ja auf Urlaub ist“). Was schon auf der menschlichen Seite mit Social Engineering erschreckend ist, wird auf der technischen Seite nicht besser. Angreifer können dynamisch auf Schwachstellen reagieren. Potentielle Opfer können in Echtzeit analysiert werden,  ob sich ein Angriff lohnt und welches finanzielle Potential sich durch eine Attacke realisieren lässt. Und Schadcode kann gezielt on-the-flye generiert werden. Nicht umsonst warnt Gartner, dass bei Angriffen die Zeit von der Kompromittierung eines Unternehmens bis zur Ausnutzung erbeuteten Zugangs dramatisch zurück geht. Eine Tendenz, der auch die SOC Analysten Rechnung tragen werden müssen. Speed is key.

Denn: In vielleicht gar nicht allzu weit entfernter Zukunft werden sich Angriff und Verteidigung in Sekunden, wenn nicht Sekundenbruchteilen, abspielen. Dann zählt nicht die menschliche Analyse und Reaktion im Angriffsfall, sondern es wird zählen, wie gut die Verteidiger ihre Systeme und KIs auf den Angriff vorbereitet haben.

Die Ergänzung menschlicher und künstlicher Intelligenz

Menschliche und künstliche Intelligenz werden sich also in Zukunft ergänzen müssen. Heutige KIs – wie ChatGPT – lernen zum Glück noch vorwiegend aus der Vergangenheit. Und nicht nur darum liegen sie manchmal gewaltig falsch. Es braucht also Kontrolle und Korrektur, die natürliche, menschliche Intelligenz bleibt gefragt: der Job des Cyber Analysten ist keinesfalls gefährdet. Ganz im Gegenteil: hervorragende Analysten werden noch mehr gefragt sein, als bisher. Einige davon vielleicht auch im neuen Job Cyber-Defense-AI-Trainer. In jedem Fall wird sich aber Ihre Art zu arbeiten ändern – wie so vieles andere auch, im Zeitalter der künstlichen Intelligenz.

Christoph Schacher

CISO

Wienerberger

About

Christoph Schacher (https://speaker.schacher.at) ist Information Security Experte und Internationaler Sprecher zu den Themen Cyber Risk Management, Business Continuity und Cyber Security. Christoph ist Mitglied in zahlreichen Sicherheitsforen und -kommittees, unter anderm im CIO Inside Summit Adivsory Board. Er arbeitet als Chief Information Security Officer bei einem der weltgrößten Hersteller für Baustoff- und Infrastrukturlösungen und lebt in Wien.

 

 

Zum Newsletter