💰 Amazon i samtal om att investera 10 miljarder dollar i utvecklaren av ChatGPT
Amazon är enligt uppgift i diskussioner om att investera mer än 10 miljarder dollar i OpenAI – och om det faktiskt händer skulle det driva upp OpenAIs värdering till "vänta, på allvar?"-zonen över 500 miljarder dollar. Det positioneras som en blandning av finansiering och strategisk anpassning ... plus den enklaste motivatorn av alla: datorhunger.
Rapporten antyder också att OpenAI skulle kunna luta sig mer mot AWS-kapacitet och potentiellt börja använda Amazons Trainium-chips, vilket i princip skulle kunna omvandla detta till en leveranslinje för nästa våg av modellskalning (eller så verkar det – dessa samtal kan vackla).
🔗 Läs mer
🧑💻 Utvecklare kan nu skicka in appar till ChatGPT
OpenAI har öppnat appinskick för granskning och publicering i ChatGPT, tillsammans med en appkatalog i produkten där man kan bläddra bland utvalda appar eller söka efter publicerade appar. Appar kan aktiveras mitt i en konversation via @omnämnanden eller väljas från verktygsmenyn – väldigt "appar, men chatt-native"
De lanserar också ett Apps SDK (beta) plus ett paket utvecklingsresurser (exempel, UI-bibliotek, snabbstart). Monetiseringen är försiktig för tillfället – mestadels länkar de ut för att slutföra transaktioner – men det är ganska tydligt att OpenAI vill att detta ska växa till ett riktigt ekosystem.
🔗 Läs mer
🗞️ Vi presenterar OpenAI Academy för nyhetsorganisationer
OpenAI lanserade ett utbildningscenter riktat till journalister, redaktörer och utgivare, byggt tillsammans med partners som American Journalism Project och The Lenfest Institute. Tanken var praktisk utbildning och handböcker som hjälper redaktioner att använda AI utan att tyst urholka förtroendet för processen.
Akademins lanseringsplan inkluderar "AI Essentials for Journalists", plus användningsfall som undersökande/bakgrundsforskning, översättning, dataanalys och produktionseffektivitet. Det finns också en mycket märkbar betoning på ansvarsfull användning och intern styrning - för, ja, någon måste skriva det policydokument som ingen vill skriva.
🔗 Läs mer
⚡ Gemini 3 Flash: gränsintelligens byggd för hastighet
Google lanserade Gemini 3 Flash som en snabbare och mer kostnadseffektiv modell – och gjorde den till standard i Gemini-appen och AI-läget i sökmotorerna. Slogan är i princip "Proffsresonemang, Flash-nivåhastighet", vilket låter som en slogan... men också beskriver hela loppet just nu.
Det distribueras också över utvecklare och företagsytor (Gemini API, AI Studio, Vertex AI med flera). Den konstigt stora undertexten: Google vill ha den här modellen överallt där människor redan befinner sig, så byteskostnaderna börjar kännas som gravitationen.
🔗 Läs mer
🧩 OpenUSD och NVIDIA Halos accelererar säkerheten för robotaxis och fysiska AI-system
NVIDIA samlar simuleringsstandarder och säkerhetsarbetsflöden i en mer sammanhängande "fysisk AI"-stack – robotar och autonoma fordon som måste överleva verkliga kaos. En viktig ingrediens är OpenUSD Core Specification 1.0, som är avsedd att göra 3D-/simuleringspipelines mer förutsägbara och interoperabla mellan verktyg.
På säkerhetssidan lyfter NVIDIA fram Halos AI Systems Inspection Lab (och certifieringsprogram) för robotaxiflottor, AV-stackar, sensorer och plattformar. Tidiga deltagare som nämns inkluderar Bosch, Nuro och Wayve, med Onsemi utropad som de första att klara inspektionen – ett trevligt litet "märkesupplåst"-ögonblick.
🔗 Läs mer
🧪 UC San Diego Lab avancerar generativ AI-forskning med NVIDIA DGX B200-systemet
UC San Diegos Hao AI Lab fick ett NVIDIA DGX B200-system för att driva forskning om LLM-inferens med låg latens – den oglamorösa rörmokeritekniken som avgör om "AI känns omedelbar" eller "AI känns som att vänta på rostat bröd". NVIDIA noterar också att produktionsinferenssystem som Dynamo bygger på koncept från laboratoriets arbete, inklusive DistServe.
Historien lutar åt "goodput" kontra dataflöde - i grund och botten dataflöde som fortfarande når latensmålen. De beskriver också att dela upp förfyllning och avkodning mellan olika GPU:er för att minska resursstörningar, vilket är nördigt, visserligen, men det är den typen av nördighet som förändrar hur en produkt känns.
🔗 Läs mer
🏗️ Hut 8 tecknar avtal om 245 MW kapacitet med Fluidstack som en del av ett partnerskap på flera gigawatt med Anthropic
Hut 8 tecknade ett långsiktigt avtal för 245 MW kapacitet på sitt campus i River Bend, och hyrde ut till AI-molnföretaget Fluidstack i en struktur värderad till 7 miljarder dollar (med optioner som skulle kunna lyfta den betydligt högre). Anthropic är knutet in som slutanvändare via det bredare partnerskapet – detta är kryptobrytningsinfrastruktur som omvandlas till AI-muskler igen, bara… större.
Det finns också en förstahandsrätt på upp till ytterligare 1 GW vid River Bend, plus finansiering från storbanker och en Google-backstop. Ärligt talat, hela grejen lyder som "AI vill ha kraft och fastigheter - och den ville ha dem igår."
🔗 Läs mer