AI Weekly - KW 52/2025
TL;DR
Diese Woche in 30 Sekunden:
- RAM-Krise: AI frisst Memory-Chips – 50% Preiserhöhung, Engpass bis 2027
- Red Lines: Microsoft will keine “runaway” Superintelligenz – Suleyman setzt klare Grenzen
- Mega-Deal: Nvidia lizenziert Groq für $20 Milliarden – Fokus verschiebt sich auf Inference
Die Story der Woche
AI frisst den Speichermarkt – und Verbraucher zahlen die Zeche
Die KI-Revolution hat einen unerwarteten Kollateralschaden: Memory-Chips werden zum Luxusgut. Micron, einer der weltgrößten RAM-Hersteller, meldete diese Woche Rekordergebnisse – und gleichzeitig eine beunruhigende Nachricht: Die Nachfrage übersteigt das Angebot deutlich. [1]
Das Problem ist strukturell. AI-Datacenter verschlingen gigantische Mengen an High-Bandwidth Memory (HBM), um ihre GPUs zu füttern. [1] Was für Nvidia-Aktionäre Champagner bedeutet, heißt für Konsumenten: teurere Laptops, Smartphones und Spielekonsolen.
Die Zahlen sind drastisch: DRAM-Preise stiegen im aktuellen Quartal um 50%. [1] Für Eilbestellungen zahlen Hersteller das Doppelte bis Dreifache. Und für das kommende Quartal prognostizieren Analysten weitere 40% Aufschlag. [1]
“Aggregate industry supply will remain substantially short of the demand for the foreseeable future.” - Sanjay Mehrotra, Micron CEO [1]
Dell-COO Jeff Clarke warnte bereits, dass diese Kosten an den Endkunden weitergegeben werden. [1] Tech-Analystin Avril Wu empfiehlt Verbrauchern daher, jetzt zu kaufen, wenn sie neue Geräte brauchen. [1]
Die bittere Ironie: Micron hat sogar seine Consumer-Sparte für SSDs und RAM geschlossen – um mehr Kapazität für lukrativere AI-Chips freizuschaufeln. [1] Entspannung ist erst 2027 in Sicht, wenn neue Fertigungsanlagen online gehen.
Bottom Line: Der AI-Boom hat einen Preis, und Verbraucher werden ihn bei ihrem nächsten Hardware-Kauf spüren.
Weitere Top-Stories
Bad Blood-Autor verklagt AI-Industrie
John Carreyrou, der Investigativ-Journalist hinter dem Theranos-Skandal, hat eine neue Zielscheibe: die gesamte AI-Branche. Diese Woche reichte eine Autorengruppe unter seiner Führung Klage gegen OpenAI, Anthropic, Google, Meta, xAI und Perplexity ein. [2]
Der Vorwurf: Die Unternehmen haben ihre Modelle auf Piratenkopien urheberrechtlich geschützter Bücher trainiert – aus Quellen wie LibGen, Z-Library und OceanofPDF. [2] Die Kläger fordern $150.000 pro Werk pro Beklagtem, also bis zu $900.000 pro Buch. [2]
Zum Vergleich: Der bisherige Anthropic-Vergleich bot nur rund $3.000 pro Autor – gerade 2% des gesetzlichen Maximums. [2] Carreyrou und Co. wollen mehr.
Microsoft zieht Superintelligence-Notbremse
Während OpenAI und andere um AGI wetteifern, geht Microsoft einen anderen Weg. AI-Chef Mustafa Suleyman verkündete die Gründung des “MAI Superintelligence Team” – mit einer klaren Philosophie: “Humanist Superintelligence” statt unbegrenzter Fähigkeiten. [3]
Der entscheidende Unterschied? Microsoft will spezialisierte Systeme für Medizin und Energie statt eines unendlich fähigen Generalisten. [3] Suleyman begründet das mit Kontrollierbarkeit: Breit aufgestellte Superintelligenz lasse sich nicht adequat steuern. [3]
“We won’t continue to develop a system that has the potential to run away from us.” - Mustafa Suleyman, Microsoft AI CEO [3]
Seine “Red Lines”: Containment und Alignment sind nicht verhandelbar. Kein System geht live, das diese Kriterien nicht erfüllt. [3] In einer Industrie, die auf maximale Fähigkeiten optimiert, ist das ein bemerkenswertes Statement.
Nvidia kauft sich Inference-Dominanz
Am Heiligabend verkündete Nvidia den größten Deal der Firmengeschichte: $20 Milliarden für eine nicht-exklusive Lizenz an Groqs Technologie – plus die Übernahme des Gründerteams. [4]
Was Nvidia bekommt: Jonathan Ross, der bei Google die TPU miterfunden hat, und Zugang zu Groqs Language Processing Units (LPUs). [4] Diese Chips sind für Inference optimiert – nicht Training – und versprechen 10x höhere Geschwindigkeit bei einem Zehntel des Energieverbrauchs. [4]
Die Message ist klar: Training ist weitgehend gelöst, jetzt geht es um effiziente Inferenz. Groq hatte im September noch $750 Millionen bei einer $6.9B-Bewertung eingesammelt. [4] Dass Nvidia das Dreifache zahlt, zeigt, wie heiß der Inference-Markt wird.
Quick Hits
- OpenAI sucht Preparedness-Chef: Nach der Versetzung von Aleksander Madry im Juli sucht OpenAI erneut eine Führungskraft für AI-Sicherheit. [6] Details
- Waymo testet Gemini in Robotaxis: Passagiere können den AI-Assistenten Fragen stellen und Kabinen-Features steuern. TechCrunch
- Alphabet kauft Intersect Power: $4.75 Milliarden für dedizierte Renewable-Energie – Grid-Engpässe werden umgangen. TechCrunch
- ChatGPT Wrapped: Spotify-Style Jahresrückblick für ChatGPT-Nutzer mit personalisierten Stats. Launch
- Anthropic Skills als Open Standard: Workflow-Definitionen jetzt portabel zwischen Tools wie Notion, Figma und Atlassian. AI Business
- Disney + Sora: 200+ Disney-Charaktere kommen zu OpenAIs Video-Generator – Kurzfilme auf Disney+. OpenAI
Tool der Woche
Anthropic Skills - Wiederverwendbare Workflow-Definitionen für Claude
Anthropic hat “Skills” zu einem offenen Standard gemacht. Skills sind Instruktions-Sets, die Claude spezifische Workflows, Standards und Domain-Wissen beibringen – und jetzt zwischen verschiedenen Plattformen portabel sind.
Die Integration mit Notion, Figma, Canva und Atlassian macht das besonders interessant für Teams: Einmal definierte Prozesse funktionieren überall gleich.
Wer es nutzen sollte: Jeder, der repetitive AI-Workflows standardisieren will. Mehr Info
Fail der Woche
“Slop” ist Wort des Jahres – und das ist verdient
Merriam-Webster hat gesprochen: Das Wort 2025 ist “Slop” – definiert als digitaler Content niedriger Qualität, der meist in Masse durch künstliche Intelligenz produziert wird. [5]
Die Wortgeschichte ist passend: Im 18. Jahrhundert bedeutete es “weicher Schlamm”, dann “Schweinefutter”, schließlich “Müll”. [5] Jetzt steht es für alles von bizarren AI-Videos über Fake-News bis zu dem, was Merriam-Webster “Workslop” nennt – AI-generierte Reports, die Kollegen Zeit stehlen. [5]
Die implizite Botschaft an die AI-Industrie: Bei allem Superintelligenz-Gerede – manchmal wirkt ihr einfach nicht besonders intelligent.
Zahl der Woche
$20 Milliarden
Nvidias größter Deal ever – für Groqs Inference-Technologie [4]
Zum Vergleich: Der bisherige Rekord war Mellanox 2019 für $6.9 Milliarden. Dieser Deal ist fast 3x größer. Die Botschaft: Wer AI-Inference dominiert, dominiert die nächste Phase der AI-Revolution.
Leseliste
Für’s Wochenende:
- AI frisst den Speichermarkt - Warum Ihre nächsten Geräte teurer werden (5 min)
- Microsoft’s Humanist Superintelligence - Suleyman’s Alternative zum AGI-Wettrennen (8 min)
- Warum “Slop” Wort des Jahres wurde - Die kulturelle Bedeutung von AI-Müll (4 min)
Next Week
Was kommt:
- CES 2025 startet am 7. Januar in Las Vegas – erwarte AI-Hardware-Ankündigungen
- Neue OpenAI-Releases? Nach GPT-5.2 und Image 1.5 könnte mehr kommen
- Anthropic + Accenture Details zur 30.000-Mitarbeiter-Schulung
Dieser Newsletter wurde mit AI-Unterstützung recherchiert und geschrieben. Hero-Bild generiert mit Pollinations.ai.
Quellen
- Memory loss: As AI gobbles up chips, prices for devices may rise
- John Carreyrou and other authors bring new lawsuit against six major AI companies
- Microsoft's next big AI bet: building a humanist superintelligence
- Nvidia acquires AI chip challenger Groq for $20B
- Slop is Merriam-Webster's word of the year for 2025
- OpenAI is looking for a new Head of Preparedness