Mit der zunehmenden Verbreitung von künstlicher Intelligenz stellt sich die Frage nach den Sicherheitsherausforderungen bei ihrer Nutzung. Vedran Vujasinović, Direktor der Direktion für Informationssicherheit bei Setcor, warnt, dass Unternehmen auch bei der Nutzung von KI sehr vorsichtig sein müssen.
Wie sollten wir künstliche Intelligenz aus sicherheitstechnischer Sicht betrachten?
– Die größte Sicherheitsherausforderung besteht darin, sicherzustellen, dass KI-Modelle nicht zum Nachteil der Nutzer missbraucht werden können, während gleichzeitig angestrebt wird, intelligente Systeme zu entwickeln, die den gleichen Kategorien wie Menschen ausgesetzt sind, wie Ethik, Altruismus und Manipulation. Künstliche Intelligenz sollte beispielsweise keine Anleitungen geben, wie man in ein Fahrzeug einbricht, aber was ist, wenn die Frage im Kontext der Rettung eines gefährdeten Kindes gestellt wird, das dringend ins Krankenhaus gebracht werden muss? Es ist daher notwendig, sicherzustellen, dass KI-Systeme korrekte und ethische Entscheidungen treffen.
Wie können wir Risiken im KI-Umfeld, wie das Leck vertraulicher Daten, verhindern?
– Sicherheitsrisiken können aus mehreren Perspektiven betrachtet werden. Erstens können Mitarbeiter versehentlich oder absichtlich die vertraulichen Informationen des Unternehmens preisgeben, indem sie diese in generative KI wie ChatGPT eingeben, indem sie beispielsweise darum bitten, eine Präsentation basierend auf einem Dokument mit vertraulichen Informationen zu erstellen. Zweitens kann KI Inhalte wie Code, Bilder oder Dokumente generieren, deren Quelle wir nicht kennen, und Mitarbeiter könnten diese unbestätigten Inhalte sorglos in ihre Anwendungen, Unterstützungssysteme oder Produktionssysteme integrieren.
Drittens können Hacker und Kriminelle KI nutzen, um perfekt gestaltete gefälschte Phishing-E-Mails zu erstellen, die Schutzmechanismen umgehen und ihr Ziel erreichen, wodurch sie auf vertrauliche Daten zugreifen. Auf diese Weise können Angreifer ohne vorherige Erfahrung KI für effektive Angriffe nutzen, was eine erhebliche Sicherheitsherausforderung darstellt. Daher ist es wichtig, Maßnahmen zu ergreifen, um sicherzustellen, dass die Daten, die zum Trainieren von KI-Modellen verwendet werden, überprüft und sicher sind, dass Algorithmen transparent sind, dass die Entscheidungsfindung nachverfolgt werden kann und dass KI-Modelle nicht für Angriffe oder unbefugte Datensammlungen missbraucht werden können.
Wie können generative KI-Anwendungen sicher übernommen werden?
– Heute möchten viele Unternehmen KI-Technologie nutzen, um Produktivität, Kreativität und Geschäftswert zu steigern, aber viele vergessen die Risiken, die unkontrollierter Zugang zu KI tatsächlich mit sich bringt. Kann ein Unternehmen beispielsweise seinen Mitarbeitern erlauben, geheimen Quellcode über KI ins Internet zu senden? Weiß das Unternehmen überhaupt, dass dies geschieht?
