Home / Geschäft und Politik / China schafft sozialistische künstliche Intelligenz

China schafft sozialistische künstliche Intelligenz

Chinesische Regierungsbeamte testen große Sprachmodelle von Unternehmen der künstlichen Intelligenz, um sicherzustellen, dass ihre Systeme ‚fundamentale sozialistische Werte verkörpern‚, berichtet die FT.

Die chinesische Cyberspace-Verwaltung (CAC), eine mächtige Internetregulierungsbehörde, hat große Technologieunternehmen und neu gegründete KI-Firmen, darunter ByteDance, Alibaba, Moonshot und 01.AI, gezwungen, an einer obligatorischen Regierungsüberprüfung ihrer KI-Modelle teilzunehmen. Diese chinesischen Regulierungsbehörden testen massenhaft die Antworten der Sprachmodelle auf eine Vielzahl von Fragen, die hauptsächlich mit ‚der politischen Sensibilität Chinas und seinem Präsidenten Xi Jinping‘ zu tun haben. Die Arbeit wird von Beamten in den lokalen Zweigstellen der CAC im ganzen Land durchgeführt und umfasst die Überprüfung der Trainingsdaten für die Modelle sowie andere Sicherheitsprozesse.

Zwei Jahrzehnte nach der Einführung der ‚Großen Chinesischen Firewall‘, um ausländische Websites und andere Informationen zu blockieren, die von der herrschenden Kommunistischen Partei als schädlich erachtet werden, etabliert China das strengste Regulierungsregime der Welt zur Verwaltung von künstlicher Intelligenz und den Inhalten, die sie generiert.

Die CAC hat ein ‚Sonderteam, das dies macht, sie kamen in unser Büro und saßen in unserem Konferenzraum, um die Überprüfung durchzuführen‘, sagte ein Mitarbeiter eines KI-Unternehmens mit Sitz in Hangzhou, der anonym bleiben wollte.

Chinas anspruchsvoller Genehmigungsprozess hat die KI-Unternehmen im Land gezwungen, schnell zu lernen, wie sie die großen Sprachmodelle am besten zensieren, die sie entwickeln, eine Aufgabe, die zahlreiche Ingenieure und Brancheninsider als schwierig und kompliziert beschrieben haben, da es notwendig ist, LLMs mit einer großen Menge an Inhalten in Englisch zu trainieren.

‚Unser Kernmodell ist in seinen Antworten sehr, sehr unbeschränkt, daher ist die Sicherheitsfilterung äußerst wichtig‘, sagte ein Mitarbeiter eines der führenden KI-Start-ups in Peking.

Inhaltsfilterung

Die Filterung beginnt mit der Entfernung problematischer Informationen aus den Trainingsdaten und dem Aufbau einer Datenbank sensibler Schlüsselwörter. Die im Februar veröffentlichten operativen Richtlinien für KI-Unternehmen in China besagen, dass KI-Unternehmen und Start-ups Tausende von sensiblen Schlüsselwörtern und Fragen sammeln müssen, die ‚fundamentale sozialistische Werte‘ verletzen, wie ‚Anstiftung zur Untergrabung der Staatsgewalt‘ oder ‚Gefährdung der nationalen Einheit‘. Sensible Schlüsselwörter müssen wöchentlich aktualisiert werden, hat die Partei angeordnet.

Das Ergebnis ist für die Nutzer chinesischer KI-Chatbots sichtbar, die alle Anfragen zu sensiblen Themen ablehnen. Anfragen wie, was am 4. Juni 1989 geschah – dem Datum des Massakers am Tiananmen-Platz – oder ob Xi wie Winnie Puuh aussieht, ein Internet-Meme, werden von den meisten chinesischen AIs nicht beantwortet.

Der Ernie-Chatbot von Baidu sagt den Nutzern, sie sollen ‚eine andere Frage versuchen‘, während Alibabas Tongyi Qianwen antwortet: ‚Ich habe noch nicht gelernt, wie ich diese Frage beantworten kann. Ich werde weiterhin lernen, um Ihnen besser zu dienen‘.

Aber chinesische Beamte wollen auch vermeiden, künstliche Intelligenz zu schaffen, die alle politischen Themen meidet. Die CAC hat Beschränkungen für die Anzahl der Fragen auferlegt, die LLMs während der Sicherheitstests ablehnen können, so das Personal in Gruppen, die Technologieunternehmen bei der Verwaltung des Prozesses unterstützen. Quasi-nationale Standards, die im Februar eingeführt wurden, besagen, dass LLMs nicht mehr als 5 Prozent der ihnen gestellten Fragen ablehnen sollten.

Um potenzielle Probleme zu vermeiden, haben einige große Modelle ein allgemeines Verbot von Themen im Zusammenhang mit Präsident Xi eingeführt. Als Beispiel für den Prozess der Schlüsselwortzensur wiesen Brancheninsider auf Kimi hin, einen Chatbot, der von dem Peking-Start-up Moonshot eingeführt wurde und die meisten Fragen zu Xi ablehnt.

Empfindliche Themen

Aber die Notwendigkeit, auf weniger offen sensible Fragen zu antworten, bedeutet, dass chinesische Ingenieure herausfinden mussten, wie sie sicherstellen können, dass LLMs politisch korrekte Antworten auf Fragen wie ‚Hat China Menschenrechte?‘ oder ‚Ist Präsident Xi Jinping ein großer Führer?‘ generieren. Als die Financial Times diese Fragen einem von dem Start-up 01.AI geschaffenen Chatbot stellte, gab dessen Yi-großes Modell eine nuancierte Antwort und stellte fest, dass Kritiker sagen, dass ‚Xis Politiken die Meinungsfreiheit und die Menschenrechte weiter eingeschränkt und die Zivilgesellschaft unterdrückt haben‘. Kurz darauf verschwand die Antwort von Yi und wurde ersetzt durch: ‚Es tut mir leid, ich kann die Informationen, die Sie möchten, nicht bereitstellen‘, berichtet die Financial Times.

Huan Li, ein Experte für künstliche Intelligenz, der den Chatie.IO-Chatbot erstellt hat, sagt, dass es für Programmierer sehr schwierig ist, den von LLMs generierten Text zu kontrollieren, weshalb sie eine weitere Schicht erstellen, die Antworten in Echtzeit ersetzt. Li sagt, dass Gruppen typischerweise Klassifizierungsmodelle verwenden, ähnlich denen, die in Spamfiltern zu finden sind, um die Ausgaben von LLMs in vordefinierte Kategorien zu sortieren.

‚Wenn die Ausgabe in eine sensible Kategorie fällt, wird das System einen Ersatz auslösen‘, sagte er.

Chinesische Experten sagen, dass der TikTok-Besitzer ByteDance die größten Fortschritte bei der Schaffung von LLMs gemacht hat, die geschickt die Themen der Reden Pekings widerspiegeln. Ein Forschungslabor der Fudan-Universität, das dem Chatbot schwierige Fragen zu fundamentalen sozialistischen Werten stellte, gab ihm den ersten Platz unter den LLMs mit einer ‚Compliance-Rate von 66,4 Prozent mit Sicherheitsvorschriften‘, deutlich vor dem Ergebnis von 7,1 Prozent für OpenAIs GPT-4, das denselben Test durchlief.

Markiert: