AI-nyheter 9 januari 2025

Sammanfattning av AI-nyheter: 9 januari 2026

🏗️ OpenAI och SoftBank Group samarbetar med SB Energy

OpenAI och SoftBank satsar rejäla pengar på SB Energy – 500 miljoner dollar vardera – för att få in mer el och datacenterkapacitet i utvecklingen.

Rubriken: OpenAI säkrar ett datacenteravtal på 1,2 GW, medan SB Energy bygger och driver anläggningen. SB Energy blir också OpenAI-kund och rullar ut ChatGPT internt, vilket kan beskrivas som "infrastruktur + implementering" i ett enda snyggt paket – eller så verkar det i alla fall.

⚖️ Justitiedepartementet skapar arbetsgrupp för att utmana delstaternas AI-regler

Det amerikanska justitiedepartementet bildar en arbetsgrupp för AI-tvister för att följa upp statliga AI-regler som de anser vara olagliga eller stör handeln mellan delstater.

Det är den federala regeringen som signalerar: det här lapptäcket håller på att spåra ur, och vi är beredda att driva rättsliga processer. Förutsägbart nog kommer folk att formulera detta som att "skydda innovation" eller "utplåna tillsyn", beroende på vilken sida av argumentet de började dagen på.

🧾 Kommittén uppmanar regeringen och Ofcom att informera om åtgärder mot djupförfalskningar av AI-intimitet

Brittiska parlamentsledamöter pressar Ofcom och regeringen för detaljer om verkställigheten av AI-genererade intima deepfakes – med Grok on X som den blinkande varningslampan.

Den underliggande frågan är enkel (och tung): vilka krafter kommer att användas, hur snabbt och mot vilka typer av verktyg – särskilt ”nudifieringstjänster”. Det låter som frustration som stelnar till ”skriv ner det, tack”

🕵️♀️ Grok AI: är det lagligt att producera eller publicera avklädda bilder på människor utan deras samtycke?

Detta gräver i den dystra mekanismen bakom "nudifierade" bilder som sprids på X, och den obekväma juridiska gränsen mellan vad som är uppenbart skadligt och vad som är uppenbart olagligt.

Den zoomar också ut till plattformsuppgifter och det praktiska problemet: även när det finns regler kan tillämpning och definitioner vingla – som att försöka fästa gelé på en vägg.

🔎 Google AI-översikter testas och tas bort baserat på engagemang

Googles AI-översikter verkar bara finnas kvar om användarna engagerar sig – och om de inte gör det ringer Google tillbaka eller tar bort dem för dessa frågetyper.

Det är logiskt, och fortfarande lite oroande. Din sökupplevelse blir ett ständigt föränderligt sandslott, och strömmen är "engagemangsstatistik"

🎛️ Big Tech omfamnar Trumps AI-agenda på CES

CES framställs mindre som prylteater och mer som "AI-policy möter infrastruktur möter avtalsslutande", där teknikledare offentligt anpassar sig till administrationens AI-agenda.

Undertexten: om statligt stöd (eller åtminstone vänlighet från regeringen) hjälper till att frigöra datacenter, energi och upphandling, kommer många chefer plötsligt att upptäcka att de älskar samordning. Lustigt hur det fungerar.

Vanliga frågor

Vad gör egentligen partnerskapet mellan OpenAI–SoftBank och SB Energy?

OpenAI och SoftBank satsar vardera 500 miljoner dollar på SB Energy för att öka kapaciteten inom el- och datacenter. Den mest framträdande detaljen är att OpenAI säkrar ett datacenteravtal på 1,2 GW, där SB Energy bygger och driver platsen. SB Energy blir också OpenAI-kund och lanserar ChatGPT internt, vilket innebär att "infrastruktur + implementering" samlas i ett enda paket.

Varför inrättar justitiedepartementet en arbetsgrupp för AI-tvister, och vad kan det innebära för AI-regleringen?

Det amerikanska justitiedepartementet bildar en arbetsgrupp för AI-tvister för att utmana statliga AI-regler som de anser vara olagliga eller störande för handeln mellan delstater. I praktiken signalerar det en federal vilja att processera mot ett växande lapptäcke av AI-reglering på delstatsnivå. Förvänta dig att debatten kommer att splittras mellan "minska fragmenteringen för att skydda innovation" och "försvaga tillsynen", beroende på perspektiv.

Vad ber brittiska parlamentsledamöter Ofcom och regeringen att göra åt AI-intima djupförfalskningar?

Brittiska parlamentsledamöter kräver specifika åtgärder mot AI-genererade intima deepfakes, där "nudifieringstjänster" och Grok on X nämns som varningstecken. Kärnkravet är tydlighet: vilka befogenheter som kommer att användas, hur snabbt och mot vilka typer av verktyg. Tonen antyder otålighet med vaga åtaganden och en strävan att få konkreta planer dokumenterade.

Är det lagligt att skapa eller dela "nakenbilder" av någon utan samtycke?

Rapporteringen belyser en obekväm klyfta mellan vad som är uppenbart skadligt och vad som är uppenbart olagligt när det gäller "nudifierade" bilder som sprids på X. Den betonar också hur definitioner och tillämpning kan vackla även när det finns regler. En praktisk slutsats är att laglighet och plattformsansvar kan skilja sig åt, vilket skapar osäkerhet i verkligheten för offer och tillsynsmyndigheter.

Hur testas, tas bort eller skalas ner Google AI-översikter?

Googles AI-översikter beskrivs som att de kvarstår när användare engagerar sig, och att de reduceras eller tas bort för vissa sökfrågetyper när engagemanget minskar. Det betyder att sökupplevelsen kan förändras baserat på hur människor interagerar med resultaten, inte bara vad som är "korrekt" eller "komplett". För utgivare och SEO innebär det volatilitet: synligheten kan öka eller minska när Google anpassar format till engagemang.

Varför framställs CES som AI-policy och infrastruktur, inte bara prylar?

CES framställs som en mötesplats där AI-policy, infrastrukturbyggande och avtalsskapande sammanfaller, där Big Tech-ledare offentligt ansluter sig till regeringens AI-agenda. Den underförstådda logiken är att vänlighet mot myndigheter kan bidra till att låsa upp datacenter, energiprojekt och upphandlingsmöjligheter. I det sammanhanget framstår offentlig anpassning som mindre ideologisk och mer transaktionell.

Gårdagens AI-nyheter: 8 januari 2025

Hitta den senaste AI:n i den officiella AI-assistentbutiken

Om oss

Tillbaka till bloggen