AI Weekly #7/2026: $380B Bewertung, während Software-Aktien fallen
AI Weekly #7/2026
15. Februar 2026 | Woche 7
Audio-Version
16:22 min | MP3 herunterladen
TL;DR
- $380 Milliarden: Anthropic schließt $30B Series G ab – zweitgrößte Private Tech-Finanzierung aller Zeiten [1]
- AI-Geopolitik eskaliert: OpenAI beschuldigt DeepSeek offiziell vor US-Gesetzgebern der systematischen Model-Distillation [3]
- Healthcare-AI-Krise: ECRI erklärt Chatbot-Misuse zum #1 Patient Safety Risk 2026 – genau als FDA Requirements lockert [4]
- Chinesische Offensive: DeepSeek V4, Alibaba Qwen 3.5, ByteDance und Zhipu bereiten koordinierte Launches während Lunar New Year vor [5]
Story der Woche: Anthropic holt $30B bei $380B Valuation – und Software-Aktien crashen
Seit seiner Gründung 2021 ist Anthropic jetzt $380 Milliarden wert. Die Series G Funding Round brachte $30 Milliarden frisches Kapital ein – die zweitgrößte private Tech-Finanzierung der Geschichte, nur übertroffen von OpenAI [1]. Zum Vergleich: Diese Bewertung liegt über BMW, Airbus und Siemens kombiniert – für ein Unternehmen, das primär ein Chat-Modell verkauft.
Doch während Foundation Model Labs Milliarden einsammeln, erzählt der Aktienmarkt eine andere Geschichte. In derselben Woche fielen Software-Aktien massiv – nicht nur Tech, sondern auch Financials, Office Real Estate, Trucking und Logistics [8]. Der Grund: Investoren fürchten, dass AI Agents traditionelle Enterprise-Software obsolet machen.
Diese Paradoxie zeigt die fundamentale Umverteilung von Kapital, die gerade stattfindet. Geld fließt weg von Unternehmen, die Software nutzen, hin zu denen, die Foundation Models bauen. Die Märkte preisen nicht nur ein, dass AI disruptiv ist – sie bewerten bereits, wer die Gewinner und Verlierer sein werden.
Was macht Anthropic mit $30 Milliarden? Das Unternehmen schweigt sich über Details aus, aber die Timing-Signale sind klar: Während OpenAI GPT-5.x pusht und DeepSeek V4 nächste Woche launcht, braucht Claude massives Kapital für das Compute-Rennen. Foundation Models sind eine Capital-Intensive Industry geworden – wer nicht Milliarden verbrennen kann, spielt nicht mehr mit.
Die $380B Valuation ist keine Bewertung von Anthropic’s aktueller Profitabilität – es ist eine Wette darauf, dass Claude einer der wenigen Überlebenden im Foundation Model Consolidation-Prozess sein wird. In einer Welt mit 5-7 Tier-1 Labs ist $380B der Preis für einen Platz am Tisch.
Weitere Top-Stories
Google DeepMind: Gemini Deep Think erreicht IMO Gold-Standard und löst offene Erdős-Probleme
Google DeepMind hat Gemini Deep Think vorgestellt – ein Reasoning-Modell, das den Gold-Medal-Standard der International Mathematics Olympiad (IMO) erreicht [2]. Noch bemerkenswerter: Das neue “Aletheia” Research Agent Feature löste vier offene Probleme aus der Erdős Conjectures Database – eine Sammlung mathematischer Vermutungen, die teilweise seit Jahrzehnten ungelöst sind.
Das ist mehr als ein Benchmark-Win. DeepMind positioniert Gemini Deep Think explizit nicht als “Tool für Mathematiker”, sondern als aktiven wissenschaftlichen Research Partner. Das Modell erreichte außerdem Competition-Level-Performance im ICPC (International Collegiate Programming Contest), was zeigt: Die Fähigkeit gilt nicht nur für formale Mathematik, sondern auch für algorithmisches Problem-Solving.
Die vier gelösten Erdős-Probleme sind historisch bedeutsam. Paul Erdős war einer der produktivsten Mathematiker des 20. Jahrhunderts – seine “Conjectures Database” enthält Hunderte offene Vermutungen, an denen Mathematiker weltweit arbeiten. Dass ein AI-System jetzt eigenständig Lösungen findet, könnte einen Wendepunkt markieren: AI entwickelt sich vom Assistenten zum Co-Researcher.
Für Scientific AI ist das ein Narrativ-Shift. Bisherige Systeme (AlphaFold, AlphaProof) lösten spezifische wissenschaftliche Probleme. Gemini Deep Think zeigt generalisierte Reasoning-Fähigkeit über multiple Domänen hinweg – Mathematik, Programming, wissenschaftliche Hypothesen. Das ist die Grundlage für AI als “allgemeinen wissenschaftlichen Entdecker”, nicht nur als Spezialwerkzeug.
OpenAI beschuldigt DeepSeek offiziell der Model-Distillation – AI wird geopolitisch
OpenAI hat US-Gesetzgeber offiziell vor DeepSeek gewarnt und dem chinesischen Lab “unfair and increasingly sophisticated methods” vorgeworfen [3]. Der konkrete Vorwurf: DeepSeek extrahiert systematisch Output von US-Modellen (GPT-4, Claude, Gemini), um damit den R1-Nachfolger DeepSeek V4 zu trainieren – ein Prozess namens “Model Distillation”.
Das ist die erste direkte IP-Accusation zwischen Tier-1 Labs über Staatsgrenzen hinweg. Distillation ist technisch legal (es ist nur Inferenz, kein Weight-Diebstahl), aber OpenAI argumentiert: Wenn DeepSeek systematisch Milliarden API-Calls nutzt, um ein konkurrierendes Modell zu trainieren, ist das unfairer Wettbewerb.
Das Timing ist strategisch. Laut Bloomberg berichtet, wird DeepSeek V4 nächste Woche während Lunar New Year erwartet [5] – genau wie vor einem Jahr, als DeepSeek-R1 für Furore sorgte. OpenAI versucht proaktiv, politischen Druck aufzubauen, bevor der Launch erfolgt.
Die geopolitische Dimension ist neu. Bisherige AI-Competition lief auf Benchmark-Ebene ab – jetzt wird es zu einem Thema für Gesetzgeber. OpenAI framed DeepSeek nicht nur als Konkurrent, sondern als staatlich gestützten Akteur, der US-IP systematisch ausnutzt. Das ist klassische Geopolitics: Technischer Wettbewerb wird zum Staatenwettbewerb.
Für die Industrie bedeutet das: Model Distillation wird ein regulatorisches Thema. Wenn US-Labs erfolgreich argumentieren, dass chinesische Distillation unfair ist, könnten API-Restrictions folgen – was wiederum chinesische Labs zu mehr Autarkie (eigene Infrastruktur) zwingt. Das AI-Rennen fragmentiert sich regional.
Healthcare-AI-Krise: Chatbot-Misuse wird #1 Patient Safety Risk – genau als FDA Requirements lockert
ECRI, eine führende Nonprofit Patient Safety Organization, hat AI-Chatbot-Misuse zum #1 Health Tech Hazard 2026 erklärt [4]. Das Problem: ChatGPT, Gemini und Microsoft Copilot werden in Healthcare-Settings ohne klinische Aufsicht eingesetzt – Ärzte und Pfleger nutzen sie für Diagnosen, Medikations-Empfehlungen und Patientenberatung.
Das Timing ist problematisch. Im Januar 2026 lockerte die FDA Device Requirements für Clinical Decision Support Tools. Resultat: AI-Tools können jetzt ohne FDA-Vetting in Kliniken eingesetzt werden. Genau in diesem Moment warnt ECRI vor den Risiken.
Die Kernprobleme laut ECRI:
- Halluzinationen: ChatGPT erfindet medizinische “Fakten”, die plausibel klingen
- Keine klinische Validierung: GPT-4 ist kein Medical Device – es wurde nie für Healthcare-Use getestet
- Fehlende Haftung: Wenn ein Patient durch AI-Fehlberatung geschädigt wird – wer ist verantwortlich?
Das ist kein theoretisches Risiko. Healthcare-Professionals berichten bereits von Fällen, in denen Kollegen ChatGPT-Output 1:1 übernommen haben – ohne Fact-Checking. Die FDA-Lockerung verstärkt das Problem: Tools, die bisher als “experimental” galten, gelten jetzt als “acceptabel”.
Gleichzeitig gibt es positive Beispiele für AI in Healthcare: Radiologie-Assistenten, die Ärzte bei Diagnosen unterstützen, oder Administrative Copilots, die Dokumentationsaufwand reduzieren. Der Unterschied liegt in der Validierung und der Supervision – klinisch geprüfte Tools mit menschlicher Aufsicht funktionieren, General-Purpose Chatbots ohne Oversight sind riskant.
Das zeigt den zentralen Trade-Off: Innovation nicht bremsen vs. Patient Safety gewährleisten. Die FDA versucht, beides zu balancieren, aber der aktuelle Ansatz – lockere Requirements für AI-Tools – könnte zu früh kommen. Healthcare ist der erste Safety-Critical Use Case, in dem General-Purpose AI massenhaft deployed wird – ohne Domain-Specific Safeguards.
Quick Hits
-
OpenAI testet Ads in ChatGPT Free Tier [6] – Trotz Milliarden-Fundings brauchen alle Labs nachhaltige Revenue Streams. ChatGPT Free bekommt Werbung, Partner zahlen Premium-Raten für Platzierung.
-
OpenAI retired GPT-4o, GPT-4.1 und o4-mini aus ChatGPT [7] – Aggressiver Model-Lifecycle: GPT-4o wird nach weniger als einem Jahr aus ChatGPT entfernt. API bleibt, aber ChatGPT pushed User zu GPT-5.x Serie. Signal: OpenAI will schnelle Adoption neuester Modelle erzwingen.
-
Software-Aktien fallen wegen AI Agent Disruption Fears [8] – Global Software Stocks (Financials, Office Real Estate, Trucking, Logistics) fallen stark. Investoren fürchten: AI Agents ersetzen traditionelle Enterprise Software. Gleiche Woche, in der Anthropic $30B bekommt.
Tool der Woche: Mistral Voxtral Transcribe 2 – On-Device Speech-to-Text für 1/5 der Cloud-Kosten
Mistral AI hat Voxtral Transcribe 2 gelauncht – ein Open-Weights Speech-to-Text-Modell, das praktischer und günstiger ist als alle Cloud-Alternativen [9].
Zwei Varianten:
- Voxtral Mini: 13 Sprachen, Speaker Diarization, $0.003/min (vs. GPT-4o mini: ~$0.015/min)
- Voxtral Realtime: Sub-200ms Latenz für Live-Transkription
Was macht es besonders:
- Open-Weights: Apache 2.0 License – kann on-device laufen (Privacy!)
- Performance: Outperformt GPT-4o mini bei 1/5 der Kosten
- Praktisch: Nicht nur Benchmark-Win – echte Kostenersparnis für Produktiv-Einsatz
Warum relevant: Das ist der Gegentrend zu Cloud-Only AI. Während OpenAI und Anthropic Milliarden verbrennen für größere Models, zeigt Mistral: Open-Source kann bei praktischen Tools führen. On-Device Processing ist Privacy-First (DSGVO-compliant ohne Cloud), günstiger (keine API-Kosten nach Deployment) und latenzarm (kein Network Round-Trip).
Voxtral Transcribe 2 ist kein Research-Projekt – es ist ein Production-Ready Tool, das Unternehmen heute deployen können. Das ist die AI-Story, die unter dem Funding-Hype untergeht: Praktische Open-Source-Tools, die echte Probleme lösen.
Fail der Woche: FDA lockert Clinical AI Requirements genau als ECRI vor Chatbot-Misuse warnt
Im Januar 2026 lockerte die FDA Device Requirements für Clinical Decision Support Tools. Genau im selben Monat warnt ECRI vor AI-Chatbot-Misuse als #1 Health Tech Hazard [4].
Timing-Paradox:
- FDA sagt: “AI-Tools brauchen weniger Vetting”
- ECRI sagt: “AI-Tools ohne Vetting sind die größte Patient-Safety-Gefahr”
- Resultat: ChatGPT/Gemini werden ohne FDA-Check in Kliniken eingesetzt
Das zeigt den Disconnect zwischen Regulierung und Safety-Realität. Policy-Maker wollen “Innovation nicht bremsen”, während Patient Safety Orgs vor den Risiken warnen. Das Ergebnis ist ein Spannungsfeld: AI-Tools können ohne umfassende Validierung in Healthcare genutzt werden – mit Potential für Haftung und Oversight-Probleme.
Der zentrale Trade-Off: Zu strikte Regulierung bremst Innovation und verhindert positive Use Cases (diagnostische Assistenten, administrative Copilots). Zu lockere Regulierung ermöglicht riskante Deployments ohne klinische Validierung. Die FDA versucht, die Balance zu finden – aber der aktuelle Ansatz könnte zu permissiv sein für Safety-Critical Settings.
Zahl der Woche: $380 Milliarden
Anthropic’s Post-Money Valuation nach $30B Series G [1].
Warum relevant:
- Zweitgrößte Private Tech Valuation nach OpenAI
- Mehr als BMW, Airbus, Siemens kombiniert
- Für ein Unternehmen, das primär ein Chat-Modell verkauft
Der Kontrast: Gleiche Woche, in der Anthropic $380B wert ist, fallen Software-Stocks aus Angst vor AI-Disruption [8]. Zeigt Umverteilung von Kapital: Weg von traditioneller Software, hin zu Foundation Model Labs.
$380B ist keine Bewertung von Profit – es ist der Preis für einen Platz im Tier-1 AI Lab Oligopol.
Leseliste
📖 Gemini Deep Think: Mathematical Discovery – Google DeepMind erklärt, wie Aletheia Research Agent offene Erdős-Probleme löste | 8 min
📖 OpenAI vs DeepSeek: Model Distillation Accusations – Bloomberg berichtet über die erste geopolitische IP-Accusation zwischen AI Labs | 6 min
📖 ECRI Health Tech Hazard Report 2026 – Warum AI-Chatbots das größte Patient-Safety-Risiko sind | 5 min
Next Week: Chinese AI Launches & DeepSeek V4
Nächste Woche startet Lunar New Year – und damit die koordinierte Offensive chinesischer AI Labs. Laut South China Morning Post (SCMP), einer in Hongkong ansässigen Zeitung, werden mehrere Major Launches erwartet [5]:
- DeepSeek V4: Nachfolger von R1, Context Window 128K → 1M Token
- Alibaba Qwen 3.5: Flaggschiff-Update
- ByteDance & Zhipu GLM-5: Weitere Major Launches
Das ist kein Zufall. Ein Jahr nach DeepSeek’s erstem Breakthrough wird Lunar New Year zum “AI Launch Window” – ähnlich wie Apple’s September-Events. Zeigt Professionalität und Koordination im chinesischen AI-Sektor.
Wir tracken die Launches und berichten nächste Woche.
Behind the AI: Metriken dieser Ausgabe
- Stories analysiert: 20 (aus 180+ RSS-Quellen)
- Finale Selektion: 5 Top-Stories + 3 Quick Hits
- Zeitraum: 2026-02-08 bis 2026-02-15
- Diversität: 6 Länder (USA, UK, China, Frankreich), 8 Kategorien
- Sources: 9 primäre Quellen, alle <14 Tage alt
Story-Auswahl-Kriterien: ✅ Tier-1 Labs (Anthropic, Google DeepMind, OpenAI) ✅ Open-Source (Mistral) ✅ Geopolitics (USA vs. China) ✅ Regulation (Healthcare AI + FDA) ✅ Business Impact (Funding, Stock Market)
Footer
AI Weekly wird von BKS-Lab produziert.
Newsletter abonnieren: bks-lab.com/newsletter
Kontakt: ai@bks-lab.com
Rechtliche Hinweise:
- Dieser Newsletter dient ausschließlich Informationszwecken
- Keine Finanz-, Investitions-, Rechts- oder Gesundheitsberatung
- Alle Angaben ohne Gewähr, Stand: 2026-02-15
- Quellen sind durch Hyperlinks gekennzeichnet
Sources:
[1] Anthropic raises $30 billion in Series G (2026-02-12)
[2] Accelerating mathematical and scientific discovery with Gemini Deep Think (2026-02-11)
[3] OpenAI Accuses DeepSeek of Distilling US Models to Gain an Edge (2026-02-12)
[4] Misuse of AI Chatbots in Health Care Tops 2026 Health Tech Hazard Report (2026-02-12)
[5] China’s AI arms race sees sector brace for major flagship model launch week (2026-02-12)
[6] Testing ads in ChatGPT (2026-02-12)
[7] Retiring GPT-4o and older models (2026-02-13)
[8] AI disruption fears slam new corners of the market (2026-02-12)
[9] Mistral Voxtral Transcribe 2 (2026-02-04)
Erstellt mit AI-Unterstützung | Alle Fakten durch primäre Quellen belegt
Quellen
- Anthropic raises $30 billion in Series G
- Accelerating mathematical and scientific discovery with Gemini Deep Think
- OpenAI Accuses DeepSeek of Distilling US Models to Gain an Edge
- Misuse of AI Chatbots in Health Care Tops 2026 Health Tech Hazard Report
- China's AI arms race sees sector brace for major flagship model launch week
- Testing ads in ChatGPT
- Retiring GPT-4o and older models
- AI disruption fears slam new corners of the market
- Mistral Voxtral Transcribe 2