🏫 I vissa skolor förhör chatbotar elever om deras arbete. Men AI-revolutionen oroar lärarna ↗
Vissa australiska skolor testar en skarpare variant av "visa dina uträkningar" – eleverna avslutar en uppgift, sedan frågar en AI-chatbot dem fram och tillbaka för att kontrollera att de förstår vad de har lämnat in. Det är i grunden en muntlig presentation, men med en maskin som frågar "vad menar du med det?" tills du börjar vrida dig.
Den större oron är den ojämna utrullningen: en branschrapport varnar för att snabba användare kan komma att släpa före medan andra halkar efter, vilket skapar ett utbildningssystem i två hastigheter. Lärare fortsätter också att påpeka de välbekanta – och fortfarande allvarliga – problemen: integritet, välbefinnande och hur man hindrar ”AI-hjälp” från att glida över till ”AI gjorde det”.
👮 Polis som träffade polisen använde AI-verktyg från Palantir för att rapportera tjänstefel ↗
Londons Metropolitan Police använder AI från Palantir för att analysera interna arbetsmönster – sjukdom, frånvaro, övertid – och leta efter signaler som kan korrelera med problem med professionella standarder. Det presenteras som ett tidsbegränsat pilotprojekt och, avgörande, säger Metropolitan Police att människor fortfarande gör de faktiska besluten ... men att det "fortfarande" gör mycket arbete.
Polisförbundet är inte begeistrat och kallar det för "automatiserad misstanke" och varnar för ogenomskinliga verktyg som feltolkar stress och arbetsbelastning som felaktiga handlingar. Det är ett av de ögonblick där tekniken låter snygg på en bild, sedan föreställer man sig hur den känns på marken och den blir skarpt stickig.
🛡️ Brittisk integritetsvakt varnar för AI-genererade bilder i gemensamt uttalande ↗
Storbritanniens ICO anslöt sig till andra tillsynsmyndigheter i en gemensam varning om AI-genererade bilder som avbildar identifierbara personer utan samtycke – i grund och botten: behandla inte "det är syntetiskt" som en magisk ursäkt. Budskapet är att bygga upp skyddsåtgärder tidigt och engagera tillsynsmyndigheter istället för att göra det klassiska tekniska draget att först be om ursäkt inom sjöfarten och sedan be om ursäkt.
De belyser också ökade risker för barn, vilket är logiskt, för när det här väl sprids är det som att försöka skopa ner glitter i en burk igen. Tanken är att integritet och värdighet är till för att överleva modecykeln, eller så verkar det i alla fall.
🪖 USA:s försvarsminister Hegseth kallar Anthropics VD till tuffa samtal om militär användning av Claude, rapporterar Axios ↗
Reuters rapporterar att den amerikanske försvarsministern ska träffa Anthropics VD för vad som beskrivs som ett mer konfronterande samtal om militär användning av Claude. Pentagon vill enligt uppgift att stora AI-leverantörer ska göra modeller tillgängliga på hemligstämplade nätverk med färre restriktioner – och Anthropic har motsatt sig alla lättnader i skyddsåtgärderna.
Undertexten låter som ett klassiskt "rör dig snabbt men... med missiler inblandade"-dilemma. Om parterna inte kan komma överens om skyddsräcken kan förhållandet ansträngas eller till och med spricka – men Anthropic signalerar också att samtalen med regeringen förblir konstruktiva, så det är spänt, men inte fullständiga uppbrotts-sms (ännu).
🧠 ChatGPT - Versionsinformation ↗
OpenAIs versionsinformation pekar på ett utökat kontextfönster för "Tänkande"-läget – vilket innebär att du kan mata modellen med mer text och hålla längre trådar sammanhängande utan att tidigare detaljer tas bort. Om du någonsin har sett en modell "glömma" något du bokstavligen just sagt (smärta), så är den här funktionen riktad mot just det.
Det är en väldigt nördig uppgradering som i tysthet förändrar det praktiska: längre dokument, mer invecklade projekt, mer utdragna forskningssessioner. Inte glamoröst, men det är den typen av VVS-byte som plötsligt får hela huset att kännas större.
Vanliga frågor
Vad innebär det när skolor använder chatbotar för att "förhöra" elever om uppgifter?
I vissa australiska skolor slutför eleverna en uppgift och går sedan igenom en diskussion fram och tillbaka med en AI-chatbot som undersöker deras resonemang. Det fungerar som en muntlig presentation där eleverna får förklara vad de har skrivit och varför. Syftet är att verifiera förståelse, inte bara output. Det kan också avslöja luckor när en elev inte kan försvara sig mot viktiga påståenden.
Hur kan AI-chattrobotar i skolor skapa ett utbildningssystem i två hastigheter?
En branschrapport varnar för att snabba skolor kan hamna i framkant medan långsammare skolor halkar efter ytterligare. Om vissa skolor använder AI-verktyg för att bedöma förståelse, stödja lärande eller avskräcka missbruk, kan de förbättra resultaten snabbare. Andra kan sakna budget, personalkapacitet eller tydlighet i policyn för att lansera jämförbara system. Det ojämna upptaget kan öka befintliga resurs- och kunskapsklyftor.
Hur försöker lärare hindra att ”AI-hjälp” förvandlas till ”AI gjorde det”?
Ett vanligt tillvägagångssätt är att rikta bedömningen mot process och förklaring, inte bara den färdiga produkten. Chatbot-liknande frågor, utkast, reflektioner eller muntliga kontrollåtgärder kan göra det svårare att lämna in arbete som man inte förstår. Lärare kan också sätta tydligare gränser för acceptabel hjälp, såsom brainstorming kontra fullständig omskrivning. Tyngdpunkten ligger kvar på att visa förståelse, inte på att övervaka alla verktyg.
Vilka integritets- och välbefinnandeproblem uppstår när AI används i klassrum?
Lärare fortsätter att oroa sig för vilka elevdata som samlas in, var de lagras och vem som har tillgång till dem. Det finns också oro för elevernas välbefinnande om de känner sig ständigt övervakade eller pressade av maskinledda frågor. Barn är en särskild riskgrupp eftersom känslig information kan spridas eller finnas kvar i system på oväntade sätt. Många skolor strävar efter att införa skyddsåtgärder tidigt snarare än att försöka efterinstallera dem senare.
Hur använder Metropolitan Police Palantir-levererad AI för att flagga potentiella tjänstefel?
Londons Metropolitan Police använder AI från Palantir för att analysera arbetskraftsmönster som sjukdom, frånvaro och övertid. Målet är att upptäcka signaler som kan korrelera med problem med professionella standarder. Det beskrivs som ett tidsbegränsat pilotprojekt, och Metropolitan Police säger att det fortfarande är människor som gör besluten. Kritiker menar att verktyget kan kännas som "automatiserad misstanke" om det tolkar stress som felaktigheter.
Varför är polisfackföreningar oroliga över "automatiserad misstanke" från AI-övervakningsverktyg?
Polisförbundets oro är att ogenomskinliga modeller kan dra slutsatser om missförhållanden utifrån mönster som har godartade förklaringar. Arbetsbelastningstoppar, hälsoproblem och stress kan förändra närvaro eller övertid utan att antyda felaktigheter. Om verktygets logik inte är transparent blir det svårare för poliser att utmana flaggor eller för chefer att kalibrera rättvisa tröskelvärden. Även med mänskliga beslut kan automatiserade signaler fortfarande forma resultaten.
Vad varnar den brittiska ICO för med AI-genererade bilder av identifierbara personer?
Den brittiska integritetsvakten anslöt sig till andra tillsynsmyndigheter och varnade för att "syntetisk" inte betyder konsekvensfri. Om en AI-genererad bild avbildar en identifierbar person utan samtycke, finns det fortfarande risker för integritet och värdighet. Tillsynsmyndigheter betonar att man bör bygga upp skyddsåtgärder tidigt och ingripa med tillsyn snarare än att först utreda dem. De signalerar också ökade risker för barn, där skadan kan öka snabbt när innehållet sprids.
Vad ligger bakom de rapporterade påtryckningarna från Pentagon på Anthropic om militär användning av Claude?
Reuters rapporterar att USA:s försvarsminister ska träffa Anthropics VD för tuffare samtal om militär användning av Claude. Pentagon vill enligt uppgift att stora AI-leverantörer ska göra modeller tillgängliga på hemligstämplade nätverk med färre restriktioner. Anthropic har motsatt sig lättare skyddsåtgärder och pekat på en konflikt om skyddsräcken. Relationen låter spänd, även om båda sidor signalerar att samtalen fortfarande är konstruktiva.
Vad har ändrats i ChatGPT:s versionsinformation om kontextlängden i "Thinking"-läget?
OpenAIs versionsinformation pekar på ett utökat kontextfönster för "Thinking"-läget, vilket gör att mer text kan placeras i en enda tråd. I praktiken kan det hjälpa med långa dokument, komplexa projekt och flerstegsforskning där tidigare detaljer är viktiga. Det är en rörmokarliknande uppgradering snarare än en flashig funktion. Den största fördelen är färre borttagna detaljer under längre sessioner.