Home / Sonstiges / KI gegen KI: Gute künstliche Intelligenz besiegt immer noch das Böse

KI gegen KI: Gute künstliche Intelligenz besiegt immer noch das Böse

Selbst die modernsten Sicherheitssysteme garantieren keinen unbestreitbaren Schutz von Geschäftsdaten, da Cybersicherheit metaphorisch, neben komplexer IT-Sprache, als ein Wettlauf gegen Zeit und Technologie definiert werden kann. Es gibt ein Ziel – Sicherheit, aber es gibt keine Grenze; der Gewinner ist derjenige, der ständig den Trends neuer Technologien folgt und verfügbare technologische Werkzeuge in Echtzeit kreativ nutzt, insbesondere künstliche Intelligenz (KI), die helfen kann – wenn sie unbefugten Zugriff auf das Geschäftssystem erkennt und verhindert, oder behindern kann – wenn sie von Personen mit schlechten Absichten missbraucht wird. Aus diesem Grund sind große Sprachmodelle, large language model (LLM) und Open-Source-Programme in den Vordergrund gerückt, da einige von ihnen nicht nur effektiv, sondern auch zugänglich und kostengünstig sind. Sie werden sowohl von großen Technologieunternehmen als auch von Startups entwickelt.

Open Models

Mistral AI, das in Paris tätig ist, hat kürzlich sein erstes großes Sprachmodell, Mistral 7B, vorgestellt und sofort neue angekündigt. Es kann einfach von GitHub heruntergeladen werden, und im Vergleich zu ähnlichen Modellen wie Llama 2 bietet Mistral 7B ähnliche oder bessere Fähigkeiten als beispielsweise Modelle wie GPT-4, die nicht einfach zu verwenden sind, da sie meist über APIs (Application Programming Interfaces) verfügbar sind. Mistral 7B ist kostenlos herunterzuladen und zu verwenden, optimal für niedrige Latenz, Textzusammenfassung, Klassifizierung und Text- und Codevervollständigung. Mistral AI hat beschlossen, Mistral 7B unter der Apache 2.0-Lizenz zu veröffentlichen, die keine Einschränkungen hinsichtlich der Nutzung oder Vervielfältigung hat.

‚Die Arbeit mit offenen Modellen ist der beste Weg für sowohl Anbieter als auch Nutzer, ein nachhaltiges Geschäft rund um KI-Lösungen aufzubauen. Offene Modelle können angepasst werden, um viele neue grundlegende Geschäftsprobleme in allen industriellen Vertikalen zu adressieren, die von Black-Box-Modellen unerreicht bleiben‘, erklärte Mistral AI in einem Blogbeitrag anlässlich der Einführung von Mistral 7B.

Der Blog stellt auch fest, dass sie in Zukunft viele verschiedene spezialisierte Modelle entwickeln werden, die jeweils auf spezifische Aufgaben zugeschnitten, so weit wie möglich komprimiert und mit spezifischen Modalitäten verbunden sind, insbesondere um Geschäftskunden und deren Bedürfnisse im Zusammenhang mit Forschung und Entwicklung, Kundenbetreuung und Marketing anzusprechen, sowie ihnen Werkzeuge zur Verfügung zu stellen, um neue Produkte mit künstlicher Intelligenz zu erstellen.

Darüber hinaus wird die Transparenz von Mistral 7B aufgrund der Dezentralisierung hervorgehoben – dieses Modell allein, behaupten sie, kann auf jede Anfrage ohne Moderation eine Antwort generieren. Im Vergleich zu Modellen wie GPT und Llama, deren Mechanismen bestimmen, wann sie antworten, ist Mistral 7B in der Wahl frei oder dezentralisiert, aber das Problem ist, dass dies von böswilligen Akteuren ausgenutzt werden kann. Dennoch mindert die potenzielle Gefahr des Missbrauchs nicht ihren Vorteil, da ihr Gesamtnutzen viel größer ist, weil sie künstliche Intelligenz für alle zugänglich machen kann.

Fake Records

Mistral 7B ist unter der Apache 2.0-Lizenz verfügbar, was bedeutet, dass es keine Barrieren für seine Nutzung gibt: Es kann persönlich, in großen Unternehmen oder in der öffentlichen Verwaltung verwendet werden. Es erfordert lediglich die Gewährleistung eines geeigneten Systems für seinen Betrieb, Vorsicht im Umgang mit Daten, Schulung der Mitarbeiter und Vorbereitung auf die Streiche künstlicher Charaktere wie Deepfakes und Chatbots, sowie die Minderung der Schäden, die durch die Nutzung künstlicher Intelligenz entstehen können.

Wie es im Geschäft helfen kann, kann künstliche Intelligenz (KI) ebenso behindern. Ihre Nutzung hängt nicht nur davon ab, wie Daten verwendet werden, sondern auch davon, ob sie die Aktionen von Deepfakes und Chatbots erkennen wird.

Die wichtigste, aber weniger offensichtliche Schwachstelle bei der Nutzung künstlicher Intelligenz ist die Datensicherheit. Fortschrittliche KI-Modelle implizieren die Verarbeitung großer Datenmengen, manchmal persönlicher Daten, was Fragen zur Sicherheit der Verarbeitung und Speicherung dieser Daten in der Cloud aufwirft. Endbenutzer werden auch ohne viel Zögern vertrauliche Informationen oder Teile des Quellcodes in eine Chatbot-Oberfläche kopieren, um Hilfe bei der Übersetzung oder der Lösung eines geschäftlichen Problems zu erhalten, wodurch die Möglichkeit eröffnet wird, dass sensible Daten außerhalb des Geschäftsumfelds durchsickern – erklärt Filip Kiseljak, ein Experte für Informationssicherheit bei KING ICT. Seiner Meinung nach können auch Sicherheitsprobleme aus Deepfake- und Chatbot-Technologien entstehen, die Tag für Tag fortschreiten und in den letzten Jahren leicht zugänglich geworden sind, ohne dass besondere Fachkenntnisse für ihre Nutzung erforderlich sind.

– Es wird zunehmend schwieriger für menschliche Augen und Ohren, Deepfake-Video- und Audio-Clips von authentischen zu unterscheiden, und KI-Technologie hat begonnen, zur Erkennung solcher Werke eingesetzt zu werden. Deepfake-Technologie eröffnet Möglichkeiten für böswillige Dritte für Betrug, Identitätsdiebstahl, Verbreitung von Fehlinformationen und Verursachung von Rufschäden durch die Erstellung gefälschter Audio- oder Videoaufnahmen. Es gibt Beispiele, in denen Deepfake-Technologien verwendet wurden, um falsche Aussagen von verschiedenen Politikern zu erstellen, die erfolgreich Fehlinformationen verbreiteten und Instabilität in globalen politischen Sphären verursachten – listet Kiseljak auf.

Fragwürdiger Datenschutz

Er fügt hinzu, dass die Nutzung von Chatbot-Technologie hauptsächlich mit Vorteilen wie schneller Analyse und Problemlösung, Zeitersparnis, hoher Verfügbarkeit… verbunden ist, aber einige der Probleme, die sie mit sich bringt, sind ungenaue und voreingenommene Antworten, fragwürdiger Datenschutz, Sicherheitsanfälligkeiten und hohe Implementierungs- und Wartungskosten. Laut Kiseljak akzeptiert eine große Anzahl von Nutzern ohne Vorbehalte die Antworten, die sie in Gesprächen mit Chatbots erhalten, was zu falsch angewandten Lösungen in Geschäftssystemen führen kann und möglicherweise Fehler oder sogar Geschäftsunterbrechungen zur Folge hat.

– KI wird nicht nur im Geschäft für konstruktive Maßnahmen eingesetzt. Weltweit nehmen automatisierte Angriffe und die Entwicklung fortschrittlicher Malware unter Verwendung künstlicher Intelligenz (KI) zu, und Hersteller von Sicherheitssoftware berichten ebenfalls von einem Anstieg der malwarefreien Angriffe (malware free) von etwa 60 bis 70 Prozent aller erkannten Angriffe auf Geschäftssysteme. Angepasste KI-Modelle können auch zur automatisierten Entdeckung von Schwachstellen und zur Planung von Angriffen auf gezielte Geschäftsumgebungen eingesetzt werden – bemerkt Kiseljak.

Er betont, dass bekannt ist, dass Angreifer immer einen Schritt voraus sind, aber es bleibt abzuwarten, wie sehr die Nutzung von künstlicher Intelligenz (KI) und fortschrittlichem maschinellen Lernen (ML) Angreifer in ihren Bemühungen helfen oder behindern wird.

– Eine große Anzahl etablierter Hersteller von Sicherheitssoftware, mit denen wir bei KING ICT eng zusammenarbeiten, hat eine Form von KI-gesteuerter Analyse in ihre Produkte integriert, die es Sicherheitsanalysten ermöglicht, Bedrohungen leichter zu triagieren und echte Bedrohungen zu erkennen sowie automatisierte Antworten im Falle von Hochrisikobedrohungen bereitzustellen, was Organisationen und Unternehmen ein höheres Schutzniveau, bessere Einblicke in den Sicherheitsstatus, schnellere Anpassung an Bedrohungen und erhöhte Effizienz des Sicherheitsbetriebszentrums bietet – erklärt Kiseljak.

Drei Hauptprobleme

Laut Alen Delić, Vizepräsident der Kroatischen Vereinigung der Sicherheitsmanager, ist der Raum für die Entwicklung von Technologien extrem breit, und nur ein Teil dieser Entwicklung und Nutzung fällt heute unter das, was kollektiv als künstliche Intelligenz bezeichnet wird.

– Zunächst sollten wir wissen, zu welchen Zwecken wir verschiedene Werkzeuge benötigen oder verwenden möchten, einschließlich solcher, die nicht die KI nutzen, wie wir sie heute wahrnehmen. Die Nutzung solcher Werkzeuge birgt verschiedene Risiken und Probleme. Einige von ihnen sind rechtlicher Natur, wie Datenschutz, Urheberrechtsfragen usw. Zweitens, aus der Perspektive der Risiken im Zusammenhang mit der Nutzung durch Dritte, vergessen wir den Bereich der Testung und Überprüfung von Werkzeugen, was uns in die Lage versetzt, Werkzeuge zu verwenden, deren Funktionsweise und Risiken wir nicht kennen. Und schließlich, vielleicht etwas, das wir vergessen, ist der Bereich der Bildung und des Bewusstseins der Nutzer, die solche Werkzeuge verwenden. Die Nutzung von Werkzeugen sollte auch Änderungen in der Art und Weise mit sich bringen, wie Nutzer geschult und ausgebildet werden, damit sie wissen, welche Fähigkeiten solche Werkzeuge haben und welche Risiken sie mit sich bringen. Oder, wie ChatGPT selbst sagen würde, wenn wir es fragen: ‚Die Einführung künstlicher Intelligenz in Unternehmen kann zahlreiche Vorteile bringen, birgt jedoch auch ernsthafte Sicherheitsherausforderungen. Organisationen müssen proaktiv sein, um diese Risiken zu identifizieren und geeignete Sicherheitsmaßnahmen zu ergreifen, um ihre Daten, Ressourcen und ihren Ruf zu schützen.‘ – betont Delić.

Wurzel der Verwundbarkeit

Er betont auch, dass die meisten Mitarbeiter heute tatsächlich nur Werkzeuge verwenden, die ihnen helfen, einige automatisierte Aufgaben zu beschleunigen, und dass die Verwundbarkeiten bei der Nutzung von künstlicher Intelligenz im Geschäft hauptsächlich mit unzuverlässigen Daten zusammenhängen, die sie möglicherweise verwenden, vertrauliche oder persönliche Daten in Systeme einzugeben, deren Funktionsweise und Verwendungszweck sie nicht kennen, sowie mit bestimmten Vorurteilen von Modellen, die die Nutzer nicht überprüfen.

Deepfakes und Chatbots sind automatisierte Werkzeuge, die für Betrug und Manipulation von Informationen verwendet werden können, was folglich den Ruf von Einzelpersonen und Organisationen oder Staaten beeinträchtigen kann – betont Delić und fügt hinzu, dass sie verwendet werden können, um Fehlinformationen zu verbreiten, sensible Informationen durch Social Engineering zu sammeln sowie für andere Angriffe, die einen schnellen Informationsaustausch erfordern.

Markiert: