AI-nyheter 28 januari 2026

AI-nyhetssammanfattning: 28 januari 2026

🧬 DeepMind lanserar AlphaGenome för att upptäcka genetiska orsaker till sjukdomar

DeepMind presenterade AlphaGenome, ett AI-system som syftar till att förutsäga hur DNA-mutationer förändrar genreglering – i princip när gener slås på, var och hur högt. Det kan skanna enorma DNA-områden på en gång, inklusive de vidsträckta icke-kodande regionerna som ofta känns som biologisk mörk materia.

Tanken är ganska direkt: snabbare identifiering av vilka mutationer som verkligen spelar roll för saker som cancerrisk och komplexa ärftliga sjukdomar. Om det fungerar som utlovat kommer forskare att lägga mindre tid på att gissa och mer tid på att testa rätt saker – vilket låter självklart, men är i stort sett hela spelet.

🧑💼 Artificiell intelligens kommer att kosta jobb, medger Liz Kendall

Storbritanniens teknikminister sa öppet att införandet av AI kommer att orsaka förlorade jobb – inte den vanliga "det kommer att ordna sig, lovar jag"-känslan. Hon pekade på oron kring nya jobb för nyutexaminerade inom områden som juridik och finans, och låtsades inte att det finns en rimlig siffra någon kan erbjuda.

Samtidigt satsar regeringen hårt på anpassning: en storsatsning på att utbilda miljontals arbetare i grundläggande AI-färdigheter, med målet att göra Storbritannien till en snabbare AI-användare. Det är den klassiska spänningen – ja jobb försvinner, ja jobb dyker upp, nej det kommer inte att kännas smidigt i mitten.

🗞️ Storbritannien uppmanar Google att tillåta webbplatser att välja bort AI-översikter

Brittiska konkurrensmyndigheter föreslog ändringar som skulle göra det möjligt för utgivare att välja bort att deras innehåll används för Googles AI-översikter – eller för att träna fristående AI-modeller – utan att bli straffade i vanliga sökrankningar. Den där delen med att "utan att bli straffade" gör mycket arbete här.

Tanken är att omfördela maktbalansen i takt med att AI-sammanfattningar omformar hur folk klickar (eller inte klickar). Googles svar var i grunden: sökbeteendet förändras, vi överväger fler kontroller, men bryt inte ner produkten i en obekvämt fragmenterad version av sig själv… vilket är rättvist, men också bekvämt.

🛡️ Skydda dina data när en AI-agent klickar på en länk

OpenAI beskrev en specifik säkerhetsrisk för agenter: URL-baserad dataexfiltrering – där en angripare lurar en AI att ladda en URL som i tysthet bäddar in privat information i frågesträngen. Även om modellen aldrig "säger" hemligheten kan själva begäran läcka den. Otäckt och avväpnande lågteknologiskt.

Deras begränsning är en enkel regel med skarpa kanter: agenter bör endast automatiskt hämta URL:er som redan är offentliga och kända för att existera via ett oberoende webbindex. Om en länk inte verifieras som offentlig bör systemet sakta ner och ge användaren tillbaka kontrollen med varningar – avsiktlig friktion, men av den goda sorten.

🇪🇺 Nästa kapitel för AI i EU

OpenAI publicerade en EU-fokuserad plan som ramar in ett problem med "kapacitetsöverskridande" – modeller kan göra mer än vad människor och företag för närvarande använder dem till, och den skillnaden riskerar ojämna vinster mellan länder. Det är som att äga en racerbil och bara köra den till närbutiken ... förutom att närbutiken är hela din ekonomi.

Vid sidan av retoriken finns det konkreta delar: ett program som syftar till att utbilda tusentals europeiska små och medelstora företag i AI-färdigheter, ett bidrag kopplat till forskning om ungdomars säkerhet och välbefinnande, och en utökad hållning för att "samarbeta med regeringar". Det är delvis ett policymemorandum, delvis en implementeringskampanj – och ja, de två suddar ut sig.

🔐 AI-risk möter cyberstyrning: NIST:s utkast till cyber-AI-profil

Ett nytt utkast till profil från NIST (via analys från en artikel i en advokatbyrå) fokuserar på hur organisationer bör integrera AI i cyberstyrning – både att säkra AI-systemen själva och att använda AI för att förbättra cyberförsvaret. Frivilligt på pappret, men "frivilligt" har en tendens att bli förväntat med tiden.

Utkastgrupperna arbetar med teman som att säkra AI-komponenter och driftsätta AI-aktiverat försvar – inklusive överväganden gällande leveranskedjan och agentliknande automatisering i responsflöden. Tanken är: behandla AI som både en ny attackyta och en ny uppsättning verktyg, och låtsas inte att dessa tar ut varandra.

Vanliga frågor

Vad är DeepMinds AlphaGenome, och vilket problem försöker det lösa?

AlphaGenome är ett AI-system som DeepMind säger kan förutsäga hur DNA-mutationer påverkar genreglering – när gener slås på, var det händer och hur starkt. Det är byggt för att skanna mycket stora delar av DNA samtidigt, inklusive de icke-kodande regioner som är notoriskt svåra att tolka. Målet är att hjälpa forskare att identifiera vilka mutationer som mest sannolikt orsakar sjukdom, så att laboratorietester kan koncentrera sig på de mest lovande ledtrådarna.

Hur kan AlphaGenome hjälpa forskare att hitta genetiska drivkrafter bakom sjukdomar snabbare?

I många genetiska arbetsflöden kommer flaskhalsen från att krympa enorma listor av varianter ner till de få som rimligen förändrar genaktiviteten. AlphaGenomes löfte är att minska den gissningen genom att förutsäga hur specifika mutationer kan förändra regleringen över långa DNA-sekvenser. Om dessa förutsägelser håller kan team prioritera experiment kring de varianter som mest sannolikt är kopplade till cancerrisk eller komplexa ärftliga tillstånd, vilket lägger mindre tid på återvändsgränder.

Kommer AI-implementering verkligen att kosta jobb i Storbritannien, och vilka roller är mest utsatta?

Storbritanniens teknikminister, Liz Kendall, sa att införandet av AI kommer att orsaka förlorade arbetstillfällen och lyfte fram oro kring inträdesroller för nyutexaminerade. Hon pekade specifikt på områden som juridik och finans, där uppgifter tidigt i karriären kan vara mer automatiserbara. Samtidigt betonar regeringen anpassning genom storskalig utbildning i grundläggande AI-färdigheter, och erkänner att övergången kan kännas ojämn även om nya roller dyker upp.

Kan brittiska utgivare välja bort Googles AI-översikter utan att förlora sökrankningar?

Brittiska konkurrensmyndigheter har föreslagit förändringar som skulle göra det möjligt för utgivare att välja bort att deras innehåll används för Googles AI-översikter – eller för att träna fristående AI-modeller – utan att straffas i vanliga sökrankningar. Målet är att återföra maktbalansen i takt med att AI-sammanfattningar förändrar klickbeteendet. Google har signalerat att de överväger fler kontroller, samtidigt som de varnar för en fragmenterad sökupplevelse.

Hur kan en AI-agent läcka privat data bara genom att klicka på en länk?

OpenAI beskrev en URL-baserad dataexfiltreringsrisk där en angripare uppmanar en AI-agent att hämta en länk som i tysthet bäddar in känslig information i frågesträngen. Även om modellen aldrig upprepar hemligheten i sin utdata kan själva begäran överföra den. En vanlig åtgärd är att lägga till "avsiktlig friktion", som varningar och att kräva användarbekräftelse när en länk inte verifieras oberoende som offentlig.

Vad är NIST:s utkast till Cyber ​​AI-profil, och hur förändrar den cyberstyrningen?

Ett utkast till NIST-profil (som diskuterats via en juridisk analys) ramar in AI som både något att säkra och något att använda i cyberförsvar. Den grupperar arbete i teman som att säkra AI-komponenter, hantera risker i leveranskedjan och driftsätta AI-aktiverade försvar – inklusive mer automatiserade, agentliknande arbetsflöden. Även om de är frivilliga till namnet blir ramverk som detta ofta de facto förväntningar, vilket driver organisationer att formellt kartlägga AI i styrning och kontroller.

Gårdagens AI-nyheter: 27 januari 2026

Hitta den senaste AI:n i den officiella AI-assistentbutiken

Om oss

Tillbaka till bloggen