Anthropic: KI-Sicherheitsmodell nur für die USA?

vor 2 Tage 1

Mythos oder Wirklichkeit? Europäische Sicherheitsbehörden haben offenbar kaum Zugang zu Anthropics geheimnisvollem „Claude Mythos“. Das KI-Modell zum Aufspüren von Sicherheitslücken wird von dem US-Unternehmen als so wirkungsvoll eingestuft, dass es zu gefährlich sei, es öffentlich verfügbar zu machen. Ob das wirklich so ist, können europäische Sicherheitsbehörden offenbar aber auch nur aus Medien und allenfalls aus Gesprächen mit Kollegen in den USA erfahren. Anthropic soll Europa nämlich beim begrenzten Zugang zum Modell bislang weitgehend außen vor gelassen haben, berichtet das Magazin Politico.

In den USA will Anthropic zwölf Technologieunternehmen, darunter Apple, Microsoft und Amazon, in den engsten Kreis aufgenommen haben, die ihre Software mit Mythos überprüfen dürfen. Auch sollen 40 weitere Organisationen Zugang erhalten haben, deren Namen Anthropic aber nicht bekanntgegeben hat. Und auch US-Regierungsstellen sollen involviert sein. Sie beriefen sofort ein Krisengespräch mit Chefs systemrelevanter Banken ein, um diese vor den Gefahren zu warnen.

Von acht befragten Cybersicherheitsbehörden in Europa hat laut Politico nur das Bundesamt für Sicherheit in der Informationstechnik (BSI) Kontakt zu Anthropic. Dabei soll es aber bislang bei Gesprächen geblieben sein. Auch das BSI habe keinen direkten Modellzugang. Einige EU-Behörden sollen ebenfalls teilweise Informationen erhalten haben. Einen direkten Zugang zum Modell erhielt laut der Recherche nur das AI Security Institute in Großbritannien, das auch erste Ergebnisse veröffentlichte.

Die Bevorzugung des Heimatmarktes durch Anthropic sorgt einmal mehr für Diskussionen darüber, ob es angesichts der Gefahren für die Volkswirtschaften privatwirtschaftlichen Unternehmen alleine überlassen bleiben darf, wen sie bei so einem kritischen Modell ins Vertrauen ziehen und wen nicht. Gegenüber Politico zeigten sich KI-Forscher und Politiker besorgt. Noch drängender werde die Frage angesichts der technologischen Fortschritte Chinas, sagen einige.

Eine rechtliche Handhabe haben die EU-Staaten bislang offenbar nicht. Der AI Act der EU und der Cyber Resilience Act greifen nur bei Modellen, die auf dem EU-Markt verfügbar sind. Genau dies hat Anthropic aber nicht gemacht – sind die EU-Behörden formal-rechtlich machtlos – die EU-Kommission hat jedoch inzwischen erklärt, sie beobachte die Sicherheitsauswirkungen aktiv und stehe mit Anthropic im Dialog (Bloomberg Law). Auch fehlt eine globale Instanz, die Entscheidungen privater KI-Unternehmen über hochriskante Modelle prüfen kann. Darüber wurde bereits diskutiert, als die Befürchtung aufkam, dass das Erreichen einer Allgemeinen Künstlichen Intelligenz erhebliche Gefahren mit sich bringen könnte.

(mki)

Gesamten Artikel lesen