Selbst die modernsten Sicherheitssysteme garantieren keinen unbestreitbaren Schutz von Geschäftsdaten, da Cybersicherheit metaphorisch, neben komplexer IT-Sprache, als ein Wettlauf gegen Zeit und Technologie definiert werden kann. Es gibt ein Ziel – Sicherheit, aber es gibt keine Grenze; der Gewinner ist derjenige, der ständig den Trends neuer Technologien folgt und verfügbare technologische Werkzeuge in Echtzeit kreativ nutzt, insbesondere künstliche Intelligenz (KI), die helfen kann – wenn sie unbefugten Zugriff auf das Geschäftssystem erkennt und verhindert, oder behindern kann – wenn sie von Personen mit schlechten Absichten missbraucht wird. Aus diesem Grund sind große Sprachmodelle, large language model (LLM) und Open-Source-Programme in den Vordergrund gerückt, da einige von ihnen nicht nur effektiv, sondern auch zugänglich und kostengünstig sind. Sie werden sowohl von großen Technologieunternehmen als auch von Startups entwickelt.
Open Models
Mistral AI, das in Paris tätig ist, hat kürzlich sein erstes großes Sprachmodell, Mistral 7B, vorgestellt und sofort neue angekündigt. Es kann einfach von GitHub heruntergeladen werden, und im Vergleich zu ähnlichen Modellen wie Llama 2 bietet Mistral 7B ähnliche oder bessere Fähigkeiten als beispielsweise Modelle wie GPT-4, die nicht einfach zu verwenden sind, da sie meist über APIs (Application Programming Interfaces) verfügbar sind. Mistral 7B ist kostenlos herunterzuladen und zu verwenden, optimal für niedrige Latenz, Textzusammenfassung, Klassifizierung und Text- und Codevervollständigung. Mistral AI hat beschlossen, Mistral 7B unter der Apache 2.0-Lizenz zu veröffentlichen, die keine Einschränkungen hinsichtlich der Nutzung oder Vervielfältigung hat.
‚Die Arbeit mit offenen Modellen ist der beste Weg für sowohl Anbieter als auch Nutzer, ein nachhaltiges Geschäft rund um KI-Lösungen aufzubauen. Offene Modelle können angepasst werden, um viele neue grundlegende Geschäftsprobleme in allen industriellen Vertikalen zu adressieren, die von Black-Box-Modellen unerreicht bleiben‘, erklärte Mistral AI in einem Blogbeitrag anlässlich der Einführung von Mistral 7B.
Der Blog stellt auch fest, dass sie in Zukunft viele verschiedene spezialisierte Modelle entwickeln werden, die jeweils auf spezifische Aufgaben zugeschnitten, so weit wie möglich komprimiert und mit spezifischen Modalitäten verbunden sind, insbesondere um Geschäftskunden und deren Bedürfnisse im Zusammenhang mit Forschung und Entwicklung, Kundenbetreuung und Marketing anzusprechen, sowie ihnen Werkzeuge zur Verfügung zu stellen, um neue Produkte mit künstlicher Intelligenz zu erstellen.
Darüber hinaus wird die Transparenz von Mistral 7B aufgrund der Dezentralisierung hervorgehoben – dieses Modell allein, behaupten sie, kann auf jede Anfrage ohne Moderation eine Antwort generieren. Im Vergleich zu Modellen wie GPT und Llama, deren Mechanismen bestimmen, wann sie antworten, ist Mistral 7B in der Wahl frei oder dezentralisiert, aber das Problem ist, dass dies von böswilligen Akteuren ausgenutzt werden kann. Dennoch mindert die potenzielle Gefahr des Missbrauchs nicht ihren Vorteil, da ihr Gesamtnutzen viel größer ist, weil sie künstliche Intelligenz für alle zugänglich machen kann.
Fake Records
Mistral 7B ist unter der Apache 2.0-Lizenz verfügbar, was bedeutet, dass es keine Barrieren für seine Nutzung gibt: Es kann persönlich, in großen Unternehmen oder in der öffentlichen Verwaltung verwendet werden. Es erfordert lediglich die Gewährleistung eines geeigneten Systems für seinen Betrieb, Vorsicht im Umgang mit Daten, Schulung der Mitarbeiter und Vorbereitung auf die Streiche künstlicher Charaktere wie Deepfakes und Chatbots, sowie die Minderung der Schäden, die durch die Nutzung künstlicher Intelligenz entstehen können.
—
—
– Die wichtigste, aber weniger offensichtliche Schwachstelle bei der Nutzung künstlicher Intelligenz ist die Datensicherheit. Fortschrittliche KI-Modelle implizieren die Verarbeitung großer Datenmengen, manchmal persönlicher Daten, was Fragen zur Sicherheit der Verarbeitung und Speicherung dieser Daten in der Cloud aufwirft. Endbenutzer werden auch ohne viel Zögern vertrauliche Informationen oder Teile des Quellcodes in eine Chatbot-Oberfläche kopieren, um Hilfe bei der Übersetzung oder der Lösung eines geschäftlichen Problems zu erhalten, wodurch die Möglichkeit eröffnet wird, dass sensible Daten außerhalb des Geschäftsumfelds durchsickern – erklärt Filip Kiseljak, ein Experte für Informationssicherheit bei KING ICT. Seiner Meinung nach können auch Sicherheitsprobleme aus Deepfake- und Chatbot-Technologien entstehen, die Tag für Tag fortschreiten und in den letzten Jahren leicht zugänglich geworden sind, ohne dass besondere Fachkenntnisse für ihre Nutzung erforderlich sind.
– Es wird zunehmend schwieriger für menschliche Augen und Ohren, Deepfake-Video- und Audio-Clips von authentischen zu unterscheiden, und KI-Technologie hat begonnen, zur Erkennung solcher Werke eingesetzt zu werden. Deepfake-Technologie eröffnet Möglichkeiten für böswillige Dritte für Betrug, Identitätsdiebstahl, Verbreitung von Fehlinformationen und Verursachung von Rufschäden durch die Erstellung gefälschter Audio- oder Videoaufnahmen. Es gibt Beispiele, in denen Deepfake-Technologien verwendet wurden, um falsche Aussagen von verschiedenen Politikern zu erstellen, die erfolgreich Fehlinformationen verbreiteten und Instabilität in globalen politischen Sphären verursachten – listet Kiseljak auf.
