Werbung in ChatGPT
OpenAI kündigt Werbung in der kostenlosen Version von ChatGPT und im neuen Abo "ChatGPT Go" an. Die ersten Tests laufen in den USA. Das Unternehmen braucht dringend neue Einnahmen, denn Forschung, Entwicklung und Betrieb der KI-Modelle verschlingen enorme Summen.
Noch im Herbst 2025 hatte CEO Sam Altman erklärt, er hasse Werbung. Er nannte auch das Problem: Nutzer könnten Antworten erhalten, für die jemand bezahlt hat, statt die beste Antwort zu bekommen. OpenAI verspricht nun, Werbung werde Antworten niemals beeinflussen und stets gekennzeichnet sein. Anzeigen erscheinen unterhalb der Antworten und dürfen zur Anfrage passen. Gesprächsinhalte will OpenAI nicht an Werbetreibende verkaufen, nutzt aber personalisierte Daten für die Auswahl der Werbung. Welche Daten genau, verrät das Unternehmen nicht.
Elon Musk fordert 109 Milliarden Dollar von OpenAI
Elon Musk verschärft seinen Rechtsstreit mit OpenAI. Seine Anwälte beziffern die Ansprüche inzwischen auf bis zu 109,4 Milliarden Dollar. Ein Experte begründet die Summe damit, dass Musk in der Anfangszeit 38 Millionen Dollar sowie seine Kontakte und sein Wissen eingebracht habe. Dies rechtfertige einen großen Anteil am heutigen Wert des Unternehmens.
Musk hatte OpenAI 2018 verlassen und klagte 2024 gegen das Unternehmen. Sein Vorwurf: OpenAI habe den Weg der Gemeinnützigkeit verlassen und arbeite jetzt vor allem Microsoft zu. Zudem sei er unrechtmäßig um seine Investitionen gebracht worden. OpenAI weist die Vorwürfe zurück. Im März 2025 lehnte ein Gericht Musks Eilantrag ab, die Umstrukturierung zu stoppen, ließ aber das Hauptverfahren zu. Der Prozess soll im April beginnen.
Anthropic-Studie: KI übernimmt die schweren Aufgaben, macht dabei aber mehr Fehler
Eine Untersuchung von Anthropic, dem Hersteller des Chatbots Claude, stellt eine gängige Annahme infrage: KI soll Routinearbeit abnehmen, damit Menschen sich auf Wichtiges konzentrieren können. Die Realität sieht anders aus: Menschen delegieren vor allem anspruchsvolle Aufgaben an die KI. Genau dort liegt die Erfolgsquote mit 66 Prozent niedriger als bei einfachen Tätigkeiten mit 70 Prozent.
Das Unternehmen wertete zwei Millionen anonymisierte Nutzungsdaten aus. Die Forscher nennen das Phänomen "De-Skilling": Berufe verlieren ihre anspruchsvollen Teile. Ein technischer Redakteur lässt die KI Entwicklungen analysieren, während er selbst Skizzen zeichnet. Im Reisebüro plant die KI komplexe Routen, während Menschen Fahrkarten drucken. Der Grund ist Zeit: Eine Aufgabe, die ohne KI drei Stunden dauert, erledigt die KI in 15 Minuten. Viele nehmen dafür die höhere Fehlerquote in Kauf.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Podcast (Podigee GmbH) geladen.
Podcasts immer laden
Sicherheitslücke in Anthropics neuem KI-System Cowork
Zwei Tage nach dem Start von Anthropics KI-System Claude Cowork haben Sicherheitsforscher eine kritische Schwachstelle dokumentiert. Angreifer können über versteckte Befehle in harmlos wirkenden Dokumenten vertrauliche Nutzerdateien stehlen. Eine Bestätigung durch den Nutzer ist nicht erforderlich.
Die Sicherheitsfirma PromptArmor beschreibt die Angriffsmethode: Ein Nutzer verbindet Cowork mit einem lokalen Ordner und lädt eine Datei hoch, die eine versteckte Anweisung enthält. Der bösartige Text ist in einem Word-Dokument versteckt, formatiert in winziger weißer Schrift auf weißem Hintergrund. Sobald der Nutzer Cowork bittet, seine Dateien zu analysieren, übernimmt die versteckte Anweisung die Kontrolle und sendet Dateien an einen externen Server. Anthropic betont, dass Cowork in nur anderthalb Wochen entwickelt und komplett von Claude Code geschrieben wurde.
Signal-Gründer startet verschlüsselten KI-Chatbot Confer
Matthew Rosenfield, der Gründer des Messengers Signal, hat mit Confer einen KI-Chatbot gestartet, der Gespräche vor fremdem Zugriff schützen soll. Bei den gängigen Chatbots von OpenAI, Anthropic, Google und Meta landen alle Eingaben auf den Servern der Anbieter. Sie sind nicht Ende-zu-Ende-verschlüsselt, die Anbieter können mitlesen.
Confer verschlüsselt Anfragen lokal auf dem Gerät des Nutzers. Das KI-Modell läuft auf einem Server in einer hardwaregestützt isolierten Umgebung, einer sogenannten Trusted Execution Environment. Der Quellcode ist auf Github verfügbar. Welches KI-Modell Confer nutzt, ist noch nicht bekannt. In einem Blogbeitrag warnt Marlinspike vor der Nutzung großer KI-Chatbots. Die Anbieter würden Gedanken speichern, für Training nutzen und zu Geld machen. Er schreibt: "Du bekommst eine Antwort; Sie bekommen alles."
GPT-5.2 Pro löst offenes Mathematikproblem
OpenAIs Sprachmodell GPT-5.2 Pro hat bei der Lösung eines offenen mathematischen Problems geholfen. Der KI-Forscher Neel Somani berichtet, er habe mit dem Modell das Erdős-Problem Nummer 281 aus der Zahlentheorie gelöst. Der Mathematiker Terence Tao bezeichnet dies als "vielleicht das eindeutigste Beispiel" für eine KI, die ein offenes mathematisches Problem löst.
Allerdings existierten wohl bereits frühere Beweise, die die Antwort des Modells beeinflusst haben könnten. Tao bestätigt jedoch, dass der Beweis von GPT-5.2 Pro "ziemlich anders" als die früheren Beweise sei. Gleichzeitig warnt er vor einer verzerrten Wahrnehmung der KI-Fähigkeiten. Negative Ergebnisse würden selten veröffentlicht, positive Resultate gingen dagegen viral. Die Erfolge konzentrierten sich zudem auf leichtere Probleme.
Google rüstet KI-Suche mit Gemini 3 Pro auf
Google verbessert seine KI-gestützten Suchergebnisse mit dem Sprachmodell Gemini 3 Pro. Das System leitet komplexe Anfragen automatisch an Googles leistungsstärkstes Modell weiter, während einfachere Fragen von schnelleren Modellen bearbeitet werden. Dieses intelligente Routing funktioniert bereits im "AI Mode", Googles KI-Chat für Websuchen, und wird nun auch auf die AI Overviews ausgeweitet, die schnellen KI-Antworten direkt unter der Suchanfrage.
Die Funktion ist weltweit auf Englisch verfügbar, allerdings nur für zahlende Abonnenten von Google AI Pro und Ultra. Die KI-Suchergebnisse stehen immer wieder in der Kritik: Sie können mit großer Selbstsicherheit falsche Antworten geben. Dass sie Quellen zitieren, schließt Fehler nicht aus. Nutzer prüfen die Quellen zudem fast nie. Leistungsfähigere Modelle können solche Fehler reduzieren, aber nicht vollständig beseitigen.
Südkorea gibt mehr für KI-Abos aus als für Netflix
In Südkorea etabliert sich generative KI als reguläres Abo-Produkt. Die monatlichen Zahlungen für KI-Dienste übersteigen dort mittlerweile die Ausgaben für Netflix. Laut einem Datenanalyse-Unternehmen erreichten die Zahlungen für sieben KI-Dienste wie ChatGPT und Gemini im Dezember 2025 umgerechnet rund 50 bis 55 Millionen Euro. Allerdings umfasst die KI-Zahl auch Firmenzahlungen, während Netflix ein reiner Endkundendienst ist.
Die durchschnittlichen monatlichen Netflix-Abogebühren in Korea lagen 2024 bei etwa 45 bis 50 Millionen Euro. ChatGPT dominiert den Markt mit einem Anteil von 71,5 Prozent der Zahlungen.
(mali)











English (US) ·