🦞 OpenClaw-grundaren Steinberger går med i OpenAI, öppen källkodsbot blir stiftelse ↗
Peter Steinberger går mot OpenAI för att marknadsföra "personliga agenter", medan OpenClaw självt parkeras i en stiftelse så att det förblir öppen källkod (och stöds). Den uppdelningen är... ganska smart - anlita byggaren, håll projektet offentligt.
OpenClaws förslag är uppfriskande praktiskt: e-postprioritering, försäkringspapper, flygincheckningar, de irriterande administrativa uppgifterna. Det är också sprängt på GitHub, och den populariteten har lett till säkerhetsproblem, särskilt om folk använder det slarvigt.
🪖 Pentagon är "trött" på Antropisk motstånd mot militärens användning av Claude AI-modellen och kan komma att bryta banden, säger rapport ↗
Kärnstriden: Pentagon vill ha bred åtkomst för "alla lagliga ändamål", och Anthropic försöker fortfarande hålla hårda gränser kring helt autonoma vapen och massövervakning. Det är den typen av oenighet som låter filosofisk tills någon säger "vi kanske ersätter er"
En underskattad nackdel – tjänstemännen vill inte att modellen plötsligt ska blockera arbetsflöden mitt i processen, och de vill inte förhandla om edge-fall för alltid (rättvist… men oj då). Det finns en verklig spänning kring "vem har nycklarna" här, och den är inte subtil.
🧠 Startup bygger modell för att förutsäga mänskligt beteende ↗
Simile drog in en investeringsrunda på 100 miljoner dollar för att bygga en modell för "begränsat lärande" som syftar till att förutsäga vad folk kan tänkas göra – inklusive, mycket specifikt, att förutse sannolika frågor i saker som resultatbesked. Smalt mål, hög ambition, något kuslig kombination.
Metoden bygger på intervjuer med riktiga människor plus beteendeforskningsdata, och kör sedan simuleringar med AI-agenter som är avsedda att spegla verkliga preferenser. Det är som att skapa en vädermodell för mänskliga beslut ... vilket låter omöjligt ända tills det inte är det.
🧑⚖️ Scoop: Vita huset pressar lagstiftare i Utah att avskaffa lagen om transparens i AI ↗
En satsning på transparens för AI på delstatsnivå i Utah får direkt kritik från Vita huset, och tjänstemän uppmanar lagförslagets förslagsställare att inte driva det vidare. Lagförslagets utformning handlar helt om transparens och barns säkerhet – vilket är svårt att argumentera emot rent optiskt.
Men den större kampen är jurisdiktionell: vem får sätta reglerna, staterna eller den federala regeringen. Och ja, det är ett morrande – som två personer som greppar tag i samma ratt och insisterar på att de är de lugna.
🎬 ByteDance lovar att förhindra obehörig IP-användning på AI-videoverktyg efter Disney-hotet ↗
Disney utfärdade ett upphörandeavtal gällande ByteDances AI-videogenerator, och ByteDance säger att de stärker skyddsåtgärderna för att förhindra obehörig användning av IP och avbildningar. Klagomålet – påstås – är att verktyget kan spotta ut bekanta franchisekaraktärer som om de bara vore… klistermärken i allmän egendom.
Det är kollisionen som alla förutspådde: virala AI-videoverktyg utvecklas snabbt, studior blir processföra och "vi lägger till skyddsåtgärder" blir standardspråket för ursäkter. I en vändning ser tekniken ut som magi – och den juridiska sidan ser ut som gravitation.
Vanliga frågor
Vad betyder det att OpenClaws grundare gick med i OpenAI medan OpenClaw flyttade till en stiftelse?
Det signalerar en splittring mellan personen som bygger "personliga agenter" och projektet som förblir offentligt styrt. Steinberger som går med i OpenAI föreslår att han kommer att koncentrera sig på att utveckla agentliknande produkter där. Att placera OpenClaw i en stiftelse är avsett att hålla det öppen källkod och hållbart stödt. I praktiken syftar åtgärden till att bevara gemenskapens förtroende medan byggaren går dit resurserna finns.
Varför fokuserar OpenClaw-liknande AI-agenter på sysslor som e-post och pappersarbete?
Eftersom "livsadministrativt" arbete är repetitivt, regelbaserat och tidskrävande, gör det det till ett praktiskt mål för automatisering. Exemplen här – e-postprioritering, försäkringspappersarbete och flygincheckningar – är snäva uppgifter med tydliga framgångskriterier. Det fokuset kan få agenter att känna sig värdefulla tidigare än assistenter med mer öppna tider. Det understryker också varför noggranna åtkomstkontroller är viktiga när agenter rör personliga konton.
Hur kan man driftsätta en AI-agent med öppen källkod som OpenClaw utan att skapa säkerhetsproblem?
Behandla det som programvara som kan se känsliga data, inte som ett leksaksskript. En vanlig metod är att låsa inloggningsuppgifter, begränsa behörigheter till det minimum som krävs och spara loggar och revisionsloggar. Kör det i en begränsad miljö och separera det från värdefulla system. Många säkerhetsproblem härrör från slarvig distribution, särskilt när personer exponerar slutpunkter eller tokens utan starka skyddsåtgärder.
Varför är Pentagon missnöjd med Anthropics restriktioner för Claude för militärt bruk?
Tvisten kretsar kring omfattning och kontroll: Pentagon vill ha bred åtkomst för "alla lagliga ändamål", medan Anthropic beskrivs ha hårda begränsningar kring helt autonoma vapen och massövervakning. Tjänstemän vill inte heller att modeller ska blockera arbetsflöden mitt i processen eller kräva oändliga förhandlingar i marginalfallet. Den spänningen är mindre abstrakt än den låter – det handlar om vem som bestämmer vad modellen kan göra i verkliga operationer.
Hur försöker startups förutsäga mänskligt beteende med AI, och varför känns det kontroversiellt?
Exemplet här, Simile, tillämpar en modell med "begränsat lärande" som syftar till att förutsäga vad människor kan tänkas göra, inklusive att förutse sannolika frågor i sammanhang som resultatsamtal. Den beskrivna metoden blandar intervjuer med beteendeforskningsdata och simuleringar med hjälp av AI-agenter som är avsedda att spegla verkliga preferenser. Det känns kusligt eftersom det flyttar AI från att svara på människor till att förutsäga dem. Utmaningen är att hålla påståendena begränsade och undvika överdriven självsäkerhet.
Vad händer när AI-videoverktyg genererar upphovsrättsskyddade karaktärer, som i ByteDance–Disney-drabbningen?
Det rapporterade mönstret är bekant: en studio utfärdar ett upphörandeförbud, och plattformen svarar genom att stärka skyddsåtgärderna för att förhindra obehörig användning av IP- eller likhetsobjekt. I många verktyg innebär skyddsåtgärder striktare innehållsfilter, förbättrad upptäckt av igenkännbara karaktärer och tydligare tillämpning av användarpolicyer. Den underliggande konflikten är hastighet kontra ansvar – viral generering går snabbt och rättigheterna fungerar som gravitationen. Förvänta dig fler av dessa kollisioner i takt med att videogeneratorer sprider sig.