Wenn wir vor hundert Jahren einer Person gesagt hätten, dass große Gefahren für ihr Leben und Geschäft in der Zukunft von einem kleinen Bildschirm, aus einer Cloud, vielleicht sogar von künstlich geschaffener Intelligenz ausgehen würden, hätten sie nicht verstanden, was wir sagten, geschweige denn uns geglaubt. Doch neue Zeiten bringen neue Herausforderungen, und heute sind aufgrund der technologischen Entwicklung Cyber-Bedrohungen eine der größten Gefahren, die im digitalen Raum lauern, wenn nicht die größte.
Und aus diesem Grund müssen sie sehr ernst genommen werden. Digitalisierung, Automatisierung, Cloud-Arbeit, Internet der Dinge-Technologie und letztendlich die exponentielle Entwicklung der künstlichen Intelligenz, die wir erleben, bringen neue Möglichkeiten und damit unvermeidliche Missbräuche. Boris Bajtl, Vizepräsident des Kroatischen Instituts für Cybersicherheit und Leiter der Abteilung für Cybersicherheit bei Atos Kroatien, betont, dass ‚unethische Akteure KI ausnutzen können, um Schwachstellen in der bestehenden Infrastruktur zu entdecken und auszunutzen.‘
– Generative Technologien der künstlichen Intelligenz wie ChatGPT basieren auf großen Datenmengen. Wenn die Daten, die zum Trainieren dieser Technologien verwendet werden, voreingenommen oder unvollständig sind, können sie ungenaue oder fehlerhafte Ergebnisse liefern. Ethische Implikationen wie der potenzielle Missbrauch persönlicher Daten oder die Verwendung dieser Technologien für unethische Zwecke müssen ebenfalls berücksichtigt werden, erklärt Bajtl, der der Meinung ist, dass es daher entscheidend ist, strenge und kontinuierliche Kontrollen und Sicherheitsprotokolle zu etablieren.
Gute Werkzeuge, schlechte Absichten
Es gibt immer mehr Möglichkeiten, wie eine Organisation angegriffen werden kann, ebenso wie es Punkte gibt, durch die dies geschehen kann, betont Saša Zdjelar, ein Sicherheitsexperte und neues Mitglied des Vorstands des IT-Unternehmens ReversingLabs.
– Mit der Entwicklung der künstlichen Intelligenz haben Akteure mit schlechten Absichten Werkzeuge gewonnen, die es ihnen ermöglichen, noch schneller und effizienter zu sein. E-Mail ist der größte Angriffsvektor. Bis vor kurzem war eine Möglichkeit, Spear-Phishing- und Phishing-Angriffe zu erkennen, schlecht geschriebene E-Mails. Mit ChatGPT und ähnlichen Werkzeugen haben Angreifer viel besser geschriebene Spear-Phishing- und Phishing-Nachrichten. Sie sind jetzt noch überzeugender und einfacher, um Opfer zu ködern. Darüber hinaus kann der für Angriffe verwendete Code leichter umgeschrieben werden, was bedeutet, dass die Erkennung umgangen werden kann. Durch das Emulieren von Stimmen sind sogar überzeugende Telefonanrufe möglich, was den Angreifern erneut einen Vorteil verschafft, warnt Zdjelar.
Um Missbrauch zu vermeiden und den Schutz der Benutzer zu gewährleisten, ‚ist es entscheidend sicherzustellen, dass die Sicherheitsmaßnahmen im Zusammenhang mit KI angepasst werden‘ und dass sie verantwortungsbewusst und ethisch eingesetzt wird, sagt Vedran Vujasinović, Direktor der Direktion für Informationssicherheit bei Setcor.
– Das Wichtigste ist, einen Schritt voraus zu sein vor potenziellen Bedrohungen. Es ist entscheidend, Strategien und Taktiken zu entwickeln und umzusetzen, die den Schutz vor potenziellen Angriffen und Missbräuchen der künstlichen Intelligenz gewährleisten. Es ist auch wichtig, Technologien zu entwickeln und umzusetzen, die gegen zukünftige Bedrohungen resistent sind, wie z.B. Quantencomputer, und ein Zero-Trust-Modell zu fördern, merkt Vujasinović an.
Da die digitale Transformation schnellere und effizientere Datenverarbeitung und eine größere Automatisierung von Geschäftsprozessen ermöglicht, auf die der Cybersicherheitsberater bei Schneider Electric SEE Marko Gulan hinweist, lauert auch dort Unsicherheit, nicht nur hinter der künstlichen Intelligenz.
– Dies eröffnet auch neue Möglichkeiten für Missbrauch, wie Angriffe auf automatisierte Systeme, Datendiebstahl oder das Abhören von Kommunikationen. Das zunehmende Maß an Cloud-Nutzung bringt viele Vorteile, erhöht jedoch auch das Risiko von Angriffen auf Infrastruktur und Daten, die in Cloud-Umgebungen gespeichert sind. Eine unsachgemäße Konfiguration und unzureichende Sicherheit von Cloud-Systemen können unbefugten Zugriff auf Daten oder deren Diebstahl ermöglichen, betont Gulan.
KI als Verbündeter
Neue Technologien können jedoch auch einem guten Zweck dienen. Abgesehen davon, dass beispielsweise die Macht der künstlichen Intelligenz missbraucht werden kann, kann sie auch als zusätzlicher Schutzschild in der Verteidigung gegen Cyberangriffe eingesetzt werden.
– Obwohl die Stärkung der künstlichen Intelligenz raffinierte Angriffe hervorrufen kann, die diese Technologie nutzen, wie Angriffe mit Deepfakes, einer Technologie, die Fotos und Videos zur Täuschung und Betrug manipulieren kann, ist dieselbe KI viel nützlicher zur Verbesserung der Cybersicherheit. Seit einiger Zeit nutzen Werkzeuge und Systeme zur Etablierung der Cybersicherheit künstliche Intelligenz, und sie hat sich als Verbündeter im Kampf gegen Cyber-Bedrohungen erwiesen, betont Gulan.
KI-Werkzeuge stehen auch Sicherheitsexperten zur Verfügung, fügt Zdjelar hinzu, der zuvor als Direktor für Informationssicherheit beim amerikanischen Ölriesen ExxonMobil und als Senior Vice President für Sicherheit bei Salesforce tätig war.
