KI-News 8. März: Anthropic vs. Pentagon

TRMT · · 4 min Lesezeit
KI-News 8. März: Anthropic vs. Pentagon

Die letzte Woche war wild. Anthropic streitet sich öffentlich mit dem Pentagon, Alibaba zeigt, dass klein das neue groß ist, und OpenAI hat tatsächlich Open-Source-Modelle rausgehauen. Dazu noch Apple, das endlich Siri ernst nimmt. Hier kommt der Überblick.

Anthropic vs. Pentagon: Der Beef des Jahres

Das Pentagon wollte uneingeschränkten Zugriff auf Anthropics Claude-Modelle. Anthropic hat Nein gesagt – keine autonomen Waffen, keine Massenüberwachung. Die Antwort? Trump hat per Dekret alle Bundesbehörden angewiesen, Anthropic-Technologie sofort nicht mehr zu nutzen. Sechs Monate Übergangsfrist fürs DoD.

Und dann wurde es richtig hässlich. Verteidigungsminister Pete Hegseth hat Anthropic als “Supply-Chain-Risiko” eingestuft. Das ist das erste Mal in der Geschichte der USA, dass ein amerikanisches Unternehmen so eingestuft wird – und zwar offenbar als Vergeltung dafür, dass sie einen Deal abgelehnt haben. Das muss man sich mal auf der Zunge zergehen lassen.

Dario Amodei hat daraufhin intern per Slack an alle Mitarbeiter geschrieben und OpenAIs Messaging als “mendacious” und “safety theater” bezeichnet. Sam Altmans Kommentare nannte er “straight up lies” und “gaslighting”. OpenAI hatte quasi zeitgleich einen Pentagon-Deal verkündet.

Am 5. März kam dann die Kehrtwende: Anthropic ist offenbar zurück am Verhandlungstisch. Die Frage bleibt aber: Kann ein KI-Unternehmen überhaupt noch Nein zum Militär sagen, ohne existenziell bedroht zu werden?

Mein Take: Egal wie man zu militärischer KI-Nutzung steht – dass eine Regierung ein Unternehmen als Sicherheitsrisiko einstuft, weil es Bedingungen stellt, ist ein gefährlicher Präzedenzfall. Das sollte jedem in der Tech-Branche Sorgen machen.

Alibabas Qwen3.5-9B: Klein, aber brutal

Am 2. März hat Alibabas Qwen-Team die Qwen3.5 Small Series veröffentlicht. Vier Modelle von 0.8B bis 9B Parameter. Und das 9B-Modell? Das schlägt OpenAIs GPT-oss-120B auf MMLU-Pro, GPQA Diamond, IFEval und LongBench v2. Neun Milliarden Parameter gegen hundertdreißig Milliarden. Das ist halt echt absurd.

Bei Vision-Tasks wird’s noch wilder: 70.1 auf MMMU-Pro versus GPT-5-Nanos 57.2. Das sind fast 13 Punkte Vorsprung.

Das Ding läuft auf normaler Consumer-Hardware. Auf einem Laptop. Open Source, auf Hugging Face verfügbar, Base und Instruct Versionen.

Mein Take: Das ist der Trend, der mich grad am meisten begeistert. Modelle werden nicht nur besser, sondern kleiner UND besser. Für lokale KI-Nutzung ist das ein Meilenstein. Wer noch denkt, man braucht Datacenter-Hardware für brauchbare KI, hat die letzten Monate verpennt.

OpenAI geht Open Source: GPT-oss ist da

Ja, wirklich. OpenAI hat Open-Weight-Modelle released. GPT-oss-120B und GPT-oss-20B, beide unter Apache 2.0 Lizenz. Das 120B-Modell kommt nah an o4-mini ran und läuft auf einer einzelnen 80GB GPU. Das 20B-Modell schafft ähnliches wie o3-mini und braucht nur 16GB RAM.

Dazu gibts GPT-oss-safeguard – Open-Weight-Modelle speziell für Safety-Klassifikation.

Mein Take: Dass OpenAI überhaupt Open-Source-Modelle rausbringt, war vor einem Jahr noch undenkbar. Die Konkurrenz durch Llama, Qwen und DeepSeek hat halt gewirkt. Ob das ein strategischer Move ist, um das Ökosystem zu kontrollieren, oder echtes Umdenken – geschenkt. Die Modelle sind da und sie sind gut.

Google Gemini 3.1 Pro: Der leise Riese

Am 19. Februar kam Gemini 3.1 Pro, am 3. März dann Gemini 3.1 Flash-Lite. Die Pro-Version hat ein 1M-Token Context Window, kommt auf 77.1% auf ARC-AGI-2 und kann multimodal über Text, Bilder, Audio, Video und Code arbeiten. Google nennt es “2x Reasoning-Improvement” über Gemini 3 Pro.

Und dann ist da noch die Apple-Story: Siri bekommt ein komplettes KI-Overhaul mit Googles Gemini (1.2 Billionen Parameter) als Backend. Läuft über Apples Private Cloud Compute für Datenschutz. Soll mit iOS 26.4 kommen.

Mein Take: Google macht grad leise sehr solide Arbeit. Während alle auf den Anthropic-Pentagon-Beef gucken, baut Google die vielleicht technisch stärkste Modell-Familie. Und dass Apple bei Google anklopft statt bei OpenAI – das sagt halt auch was.

Ai2 Olmo Hybrid: Doppelte Effizienz

Ai2 hat Olmo Hybrid released, ein 7B-Modell, das Transformer-Attention mit linearen rekurrenten Schichten kombiniert. Das Ergebnis: Gleiche MMLU-Accuracy wie Olmo 3, aber mit 49% weniger Tokens. Sprich: doppelte Dateneffizienz.

Mein Take: Klingt erstmal nach Research-Paper-Material, aber Hybrid-Architekturen könnten die nächste große Sache werden. Wenn du mit der Hälfte der Daten gleich gute Ergebnisse bekommst, ändert das die Kostenrechnung für Training komplett.

OpenAIs $110 Milliarden Funding-Runde

Kurz erwähnt, weil die Zahl einfach irre ist: OpenAI hat eine $110 Milliarden Funding-Runde abgeschlossen. Amazon ($50B), SoftBank ($30B), Nvidia ($30B). Eine der größten privaten Investitionsrunden der Geschichte.

Mein Take: Die Bewertung ist halt komplett losgelöst von jeglicher Business-Realität. Aber die Message ist klar – die großen Player setzen alles auf KI. Ob sich das rentiert, wird 2026 zeigen. Das “Year of Truth” halt, wie alle es grad nennen.


Das wars für heute. Die Woche war dominiert vom Anthropic-Pentagon-Drama, aber unter der Oberfläche passiert grad echt viel Spannendes – vor allem im Open-Source-Bereich. Kleine Modelle, die große schlagen. Open Weights von OpenAI. Hybrid-Architekturen. Die KI-Landschaft sortiert sich grad komplett neu.. TRMT