Kort svar: AI-uppskalning fungerar genom att träna en modell på parade bilder med låg och hög upplösning, och sedan använda den för att förutsäga trovärdiga extra pixlar under uppskalningen. Om modellen har sett liknande texturer eller ansikten under träningen kan den lägga till övertygande detaljer; annars kan den "hallucinera" artefakter som glorior, vaxartad hud eller flimmer i video.
Viktiga slutsatser:
Förutsägelse : Modellen genererar rimliga detaljer, inte en garanterad rekonstruktion av verkligheten.
Modellval : CNN-kanaler tenderar att vara stadigare; GAN-kanaler kan se skarpare ut men riskerar att uppfinna funktioner.
Artefaktkontroller : Se upp för glorior, upprepade texturer, "nästan bokstäver" och plastiga ansikten.
Videostabilitet : Använd temporala metoder, annars ser du skimmer och drift från bildruta till bildruta.
Användning med höga insatser : Om noggrannhet är viktig, redovisa bearbetningen och behandla resultaten som illustrativa.

Du har säkert sett det: en liten, krispig bild förvandlas till något tillräckligt skarpt för att skrivas ut, streamas eller släppas in i en presentation utan att rygga tillbaka. Det känns som fusk. Och – på bästa sätt – det är det liksom 😅
Så, hur AI-uppskalning fungerar handlar om något mer specifikt än "datorn förbättrar detaljer" (handvågigt) och närmare "en modell förutsäger en rimlig högupplöst struktur baserad på mönster den lärt sig från många exempel" ( Deep Learning for Image Super-resolution: A Survey ). Det förutsägelsesteget är hela spelet - och det är därför AI-uppskalning kan se fantastisk ut ... eller lite plastigt ... eller som om din katt fick bonusmorrhår.
Artiklar du kanske vill läsa efter den här:
🔗 Hur AI fungerar
Lär dig grunderna om modeller, data och inferens inom AI.
🔗 Hur AI lär sig
Se hur träningsdata och feedback förbättrar modellens prestanda över tid.
🔗 Hur AI upptäcker avvikelser
Förstå mönsterbaslinjer och hur AI snabbt flaggar ovanligt beteende.
🔗 Hur AI förutspår trender
Utforska prognosmetoder som upptäcker signaler och förutser framtida efterfrågan.
Hur AI-uppskalning fungerar: kärnidén, med vardagliga ord 🧩
Uppskalning innebär ökad upplösning: fler pixlar, större bild. Traditionell uppskalning (som bikubisk) sträcker i princip ut pixlar och jämnar ut övergångar ( bikubisk interpolering ). Det är okej, men det kan inte skapa nya detaljer – det bara interpolerar.
AI-uppskalning försöker sig på något djärvare (även kallat "superupplösning" i forskningsvärlden) ( Deep Learning for Image Super-resolution: A Survey ):
-
Den tittar på lågupplöst ingång
-
Känner igen mönster (kanter, texturer, ansiktsdrag, textstreck, tygväv…)
-
Förutsäger hur en högupplöst version ska se ut
-
Genererar extra pixeldata som passar dessa mönster
Inte "återställa verkligheten perfekt", snarare "göra en mycket trovärdig gissning" ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ). Om det låter lite misstänkt har du inte fel - men det är också därför det fungerar så bra 😄
Och ja, det betyder att AI-uppskalning i grunden är kontrollerad hallucination ... men på ett produktivt, pixelrespekterande sätt.
Vad kännetecknar en bra version av AI-uppskalning? ✅🛠️
Om du bedömer en AI-uppskalare (eller en förinställd inställning), är det här som tenderar att vara viktigast:
-
Detaljåterställning utan överkokning.
Bra uppskalning ger krispighet och struktur, inte krispigt ljud eller falska porer. -
Kantdisciplin
Rena linjer förblir rena. Dåliga modeller får kanterna att vingla eller få glorier att spira. -
Texturrealism
Hår ska inte bli ett penseldrag. Tegel ska inte bli en upprepande mönsterstämpel. -
Brus- och komprimeringshantering
Många vardagsbilder JPEG-konverteras till döds. En bra uppskalare förstärker inte den skadan ( Real-ESRGAN ). -
Medvetenhet om ansikten och text
Ansikten och text är de enklaste ställena att upptäcka misstag. Bra modeller behandlar dem varsamt (eller har specialiserade lägen). -
Konsekvens över bildrutor (för video)
Om detaljer flimrar från bildruta till bildruta kommer dina ögon att skrika. Videouppskalning lever eller dör av tidsmässig stabilitet ( BasicVSR (CVPR 2021) ). -
Kontroller som är logiska
Du vill ha reglage som motsvarar verkliga resultat: brusreducering, oskärpa, borttagning av artefakter, kornighetsbevarande, skärpning… det praktiska.
En tyst regel som håller: den "bästa" uppskalningen är ofta den du knappt märker. Det ser bara ut som att du hade en bättre kamera från början 📷✨
Jämförelsetabell: populära AI-uppskalningsalternativ (och vad de är bra för) 📊🙂
Nedan följer en praktisk jämförelse. Priserna är avsiktligt otydliga eftersom verktygen varierar beroende på licens, paket, beräkningskostnader och allt det där roliga.
| Verktyg / Metod | Bäst för | Prisvibe | Varför det fungerar (ungefär) |
|---|---|---|---|
| Topaz-stil skrivbordsuppskalare ( Topaz Photo , Topaz Video ) | Foton, video, enkelt arbetsflöde | Betald-ish | Starka generella modeller + mycket trimning, tenderar att "bara fungera"... mestadels |
| Adobes funktioner av typen "Superupplösning" ( Adobe Enhance > Superupplösning ) | Fotografer som redan finns i det ekosystemet | Prenumeration-y | Rekonstruktion av solida detaljer, vanligtvis konservativ (mindre drama) |
| Real-ESRGAN / ESRGAN-varianter ( Real-ESRGAN , ESRGAN ) | Gör-det-själv, utvecklare, batchjobb | Gratis (men tidskrävande) | Bra på texturdetaljer, kan vara starkt i ansiktet om man inte är försiktig |
| Diffusionsbaserade uppskalningslägen ( SR3 ) | Kreativt arbete, stiliserade resultat | Blandad | Kan skapa vackra detaljer - kan också hitta på nonsens, så… japp |
| Speluppskalare (DLSS/FSR-stil) ( NVIDIA DLSS , AMD FSR 2 ) | Spel och rendering i realtid | Paketerad | Använder rörelsedata och inlärda prior-data – smidig prestandavinst 🕹️ |
| Molnuppskalningstjänster | Bekvämlighet, snabba vinster | Betala per användning | Snabb + skalbar, men du byter kontroll och ibland subtilitet |
| Videofokuserade AI-uppskalare ( BasicVSR , Topaz Video ) | Gamla bilder, anime, arkiv | Betald-ish | Temporala knep för att minska flimmer + specialiserade videomodeller |
| Uppskalning av "smart" telefon/galleri | Tillfällig användning | Ingår | Lätta modeller inställda för tilltalande resultat, inte perfektion (fortfarande praktiska) |
Bekännelse av formateringssnack: "Paid-ish" gör en hel del arbete i den tabellen. Men ni fattar 😅
Den stora hemligheten: modeller lär sig en mappning från lågupplöst till högupplöst 🧠➡️🖼️
Kärnan i de flesta AI-uppskalningar är en övervakad inlärningsuppsättning ( Bildsuperupplösning med djupa faltningsnätverk (SRCNN) ):
-
Börja med högupplösta bilder ("sanningen")
-
Nedsampla dem till versioner med låg upplösning ("indata")
-
Träna en modell för att rekonstruera den ursprungliga högupplösta bilden från den lågupplösta bilden
Med tiden lär sig modellen korrelationer som:
-
"Den här typen av oskärpa runt ett öga hör vanligtvis till ögonfransarna"
-
"Detta pixelkluster indikerar ofta serif-text"
-
"Denna kantgradient ser ut som en taklinje, inte slumpmässigt brus"
Det handlar inte om att memorera specifika bilder (i ordets enklaste bemärkelse), det handlar om att lära sig statistisk struktur ( Deep Learning for Image Super-resolution: A Survey ). Tänk på det som att lära sig grammatiken kring texturer och kanter. Inte poesigrammatik, mer som… IKEA manualgrammatik 🪑📦 (klumpig metafor, men ändå tillräckligt nära).
Detaljerna: vad som händer under inferens (när du skalar upp) ⚙️✨
När du matar in en bild i en AI-uppskalare finns det vanligtvis en pipeline som denna:
-
Förbehandling
-
Konvertera färgrymd (ibland)
-
Normalisera pixelvärden
-
Kakla bilden i bitar om den är stor (VRAM-verklighetskontroll 😭) ( Real-ESRGAN-repo (kaklaalternativ) )
-
-
Funktionsutvinning
-
Tidiga lager detekterar kanter, hörn och gradienter
-
Djupare lager upptäcker mönster: texturer, former, ansiktskomponenter
-
-
Rekonstruktion
-
Modellen genererar en högupplöst objektkarta
-
Sedan omvandlar du det till faktisk pixelutgång
-
-
Efterbehandling
-
Valfri slipning
-
Valfri brusreducering
-
Valfri artefaktundertryckning (ringningar, halos, blockering)
-
En subtil detalj: många verktyg skalar upp kakel och blandar sedan samman skarvarna. Bra verktyg döljer kakelgränser. Meh-verktygen lämnar svaga rutnätsmärken om du kisar. Och ja, du kommer att kisa, för människor älskar att inspektera små skavanker med 300 % zoom som små gremlin 🧌
De huvudsakliga modellfamiljerna som används för AI-uppskalning (och varför de känns annorlunda) 🤖📚
1) CNN-baserad superupplösning (den klassiska arbetshästen)
Konvolutionella neurala nätverk är utmärkta för lokala mönster: kanter, texturer, små strukturer ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ).
-
Fördelar: snabb, stabil, färre överraskningar
-
Nackdelar: kan se lite "bearbetad" ut om man anstränger sig
2) GAN-baserad uppskalning (ESRGAN-stil) 🎭
GAN (Generative Adversarial Networks) tränar en generator att producera högupplösta bilder som en diskriminator inte kan skilja från verkliga ( Generative Adversarial Networks ).
-
Fördelar: kraftfulla detaljer, imponerande textur
-
Nackdelar: kan uppfinna detaljer som inte fanns där - ibland fel, ibland kusliga ( SRGAN , ESRGAN )
En GAN kan ge dig den där hänförande skärpan. Den kan också ge ditt porträttmotiv ett extra ögonbryn. Så… välj dina strider 😬
3) Diffusionsbaserad uppskalning (det kreativa jokertecknet) 🌫️➡️🖼️
Diffusionsmodeller brusreducerar steg för steg och kan styras för att producera högupplösta detaljer ( SR3 ).
-
Fördelar: kan vara otroligt bra på rimliga detaljer, särskilt för kreativt arbete
-
Nackdelar: kan avvika från den ursprungliga identiteten/strukturen om inställningarna är aggressiva ( SR3 )
Det är här ”uppskalning” börjar smälta samman med ”omtolkning”. Ibland är det precis vad man vill. Ibland inte.
4) Videouppskalning med tidsmässig konsekvens 🎞️
Videouppskalning lägger ofta till rörelsemedveten logik:
-
Använder angränsande bildrutor för att stabilisera detaljer ( BasicVSR (CVPR 2021) )
-
Försöker undvika flimmer och krypande artefakter
-
Kombinerar ofta superupplösning med brusreducering och deinterlacing ( Topaz Video )
Om bilduppskalning är som att restaurera en målning, är videouppskalning som att restaurera ett blädderblock utan att karaktärens näsa ändrar form på varje sida. Vilket är ... svårare än det låter.
Varför AI-uppskalning ibland ser fejk ut (och hur man upptäcker det) 👀🚩
AI-uppskalning misslyckas på igenkännbara sätt. När du väl lärt dig mönstren kommer du att se dem överallt, som att köpa en ny bil och plötsligt lägga märke till den modellen på varje gata 😵💫
Vanliga berättar:
-
Vaxning av hud i ansiktet (för mycket brusreducering + utjämning)
-
Överskärpta glorier runt kanterna (klassiskt "överskridande" område) ( bikubisk interpolering )
-
Upprepade texturer (tegelväggar blir kopiera-klistra-mönster)
-
Krispig mikrokontrast som skriker "algoritm"
-
Textförvrängning där bokstäver blir nästan bokstäver (den värsta sorten)
-
Detaljdrift där små funktioner subtilt förändras, särskilt i diffusionsarbetsflöden ( SR3 )
Det knepiga: ibland ser dessa artefakter "bättre" ut vid första anblicken. Din hjärna gillar skärpa. Men efter ett ögonblick känns det... fel.
En bra taktik är att zooma ut och kontrollera om det ser naturligt ut på normalt avstånd. Om det bara ser bra ut vid 400 % zoom är det ingen vinst, det är en hobby 😅
Så fungerar AI-uppskalning: träningssidan, utan mattehuvudvärk 📉🙂
Att träna superupplösningsmodeller innebär vanligtvis:
-
Parade datamängder (lågupplöst indata, högupplöst mål) ( Bildsuperupplösning med djupa faltningsnätverk (SRCNN) )
-
Förlustfunktioner som bestraffar felaktiga rekonstruktioner ( SRGAN )
Typiska förlusttyper:
-
Pixelförlust (L1/L2)
Främjar noggrannhet. Kan ge något mjuka resultat. -
Perceptuell förlust
ser detta liknande ut") snarare än exakta pixlar ( Perceptual Losses (Johnson et al., 2016) ). -
Adversarial förlust (GAN)
Uppmuntrar realism, ibland på bekostnad av bokstavlig noggrannhet ( SRGAN , Generative Adversarial Networks ).
Det pågår en ständig dragkamp:
-
Gör det trogen originalet
vs -
Gör det visuellt tilltalande
Olika verktyg hamnar på olika platser inom det spektrumet. Och du kanske föredrar ett beroende på om du restaurerar familjefoton eller förbereder en affisch där "snygg" är viktigare än kriminalteknisk noggrannhet.
Praktiska arbetsflöden: foton, gamla skanningar, anime och video 📸🧾🎥
Foton (porträtt, landskap, produktbilder)
Bästa praxis är vanligtvis:
-
Mild brusreducering först (vid behov)
-
Lyxigt med konservativa miljöer
-
Lägg tillbaka spannmål om det känns för slätt (ja, verkligen)
Spannmål är som salt. För mycket förstör middagen, men inget alls kan smaka lite platt 🍟
Gamla skanningar och kraftigt komprimerade bilder
Dessa är svårare eftersom modellen kan behandla kompressionsblock som "textur".
Försök:
-
Borttagning eller avblockering av artefakter
-
Sedan uppskala
-
Sedan lätt skärpning (inte för mycket… jag vet, alla säger det, men ändå)
Anime och linjekonst
Linjeteckningar drar nytta av:
-
Modeller som bevarar rena kanter
-
Minskad texturhallucination.
Anime-uppskalning ser ofta bra ut eftersom formerna är enklare och konsekventa. (Tur.)
Video
Videon lägger till extra steg:
-
Brusreducering
-
Deinterlace (för vissa källor)
-
Lyxigt
-
Temporal utjämning eller stabilisering ( BasicVSR (CVPR 2021) )
-
Valfri återinföring av spannmål för kohesion
Om du hoppar över tidsmässig konsistens får du det där skimrande detaljflimmeret. När du väl lagt märke till det kan du inte göra dig av med det. Som en gnisslande stol i ett tyst rum 😖
Att välja inställningar utan att gissa vilt (en liten fusklapp) 🎛️😵💫
Här är en hyfsad utgångspunkt:
-
Om ansikten ser plastiga ut.
Minska brusreducering, minska skärpan eller prova en modell eller ett läge som bevarar ansiktet. -
Om texturerna ser för intensiva ut,
sänk reglagen för "detaljförbättring" eller "återställ detaljer" och lägg till subtil kornighet efteråt. -
Om kanterna lyser,
minska skärpan och kontrollera alternativen för haloreducering. -
Om bilden ser för "AI" ut
, bli mer konservativ. Ibland är det bästa draget helt enkelt ... mindre.
Och: skala inte upp till 8x bara för att du kan. En ren 2x eller 4x är ofta det perfekta alternativet. Utöver det ber du modellen att skriva fanfiction om dina pixlar 📖😂
Etik, autenticitet och den obekväma frågan om "sanning" 🧭😬
AI-uppskalning suddar ut en linje:
-
Restaurering innebär att återställa det som fanns
-
Förbättring innebär att lägga till det som inte fanns
Med personliga foton är det oftast okej (och fint). Med journalistik, juridiska bevis, medicinsk avbildning eller vad som helst där trohet spelar roll ... måste man vara försiktig ( OSAC/NIST: Standardguide för hantering av forensisk digital bild , SWGDE-riktlinjer för forensisk bildanalys ).
En enkel regel:
-
Om insatserna är höga, behandla AI-uppskalning som illustrativt , inte definitivt.
Även i professionella sammanhang är det viktigt att kunna upplysa om information. Inte för att AI är ond, utan för att publiken förtjänar att veta om detaljer har rekonstruerats eller fångats. Det är bara... respektfullt.
Avslutande anteckningar och en snabb sammanfattning 🧡✅
Så fungerar AI-uppskalning : modeller lär sig hur högupplösta detaljer tenderar att relatera till lågupplösta mönster och förutspår sedan trovärdiga extra pixlar under uppskalning ( Deep Learning for Image Super-resolution: A Survey ). Beroende på modellfamiljen (CNN, GAN, diffusion, videotemporal) kan den förutsägelsen vara konservativ och trogen ... eller djärv och ibland ojämn 😅
Snabb sammanfattning
-
Traditionell uppskalning sträcker ut pixlar ( bikubisk interpolering )
-
AI-uppskalning förutspår saknade detaljer med hjälp av inlärda mönster ( Bildsuperupplösning med djupa faltningsnätverk (SRCNN) )
-
Bra resultat kommer från rätt modell + återhållsamhet
-
Se upp för glorior, vaxartade ansikten, upprepade texturer och flimmer i video ( BasicVSR (CVPR 2021) )
-
Uppskalning är ofta "trolig rekonstruktion", inte perfekt sanning ( SRGAN , ESRGAN )
Om du vill, berätta vad du uppskalar (ansikten, gamla foton, video, anime, textskanningar), så föreslår jag en inställningsstrategi som tenderar att undvika de vanliga fallgroparna med "AI-look" 🎯🙂
Vanliga frågor
AI-uppskalning och hur det fungerar
AI-uppskalning (ofta kallad "superupplösning") ökar en bilds upplösning genom att förutsäga saknade högupplösta detaljer från mönster som lärts in under träning. Istället för att bara sträcka ut pixlar som bikubisk interpolering, studerar en modell kanter, texturer, ytor och textliknande penseldrag och genererar sedan ny pixeldata som överensstämmer med dessa inlärda mönster. Det handlar mindre om att "återställa verkligheten" och mer om att "göra en trovärdig gissning" som läses som naturlig.
AI-uppskalning kontra bikubisk eller traditionell storleksändring
Traditionella uppskalningsmetoder (som bikubisk) interpolerar huvudsakligen mellan befintliga pixlar och jämnar ut övergångar utan att skapa verkligt nya detaljer. AI-uppskalning syftar till att rekonstruera trovärdiga strukturer genom att känna igen visuella signaler och förutsäga hur högupplösta versioner av dessa signaler tenderar att se ut. Det är därför AI-resultat kan kännas dramatiskt skarpare, och också varför de kan introducera artefakter eller "uppfinna" detaljer som inte fanns i källan.
Varför ansikten kan se vaxartade eller alltför släta ut
Vaxartade ansikten uppstår vanligtvis genom aggressiv brusreducering och utjämning i kombination med skärpning som avlägsnar hudens naturliga struktur. Många verktyg behandlar brus och fin struktur på liknande sätt, så att "rengöra" en bild kan radera porer och subtila detaljer. En vanlig metod är att minska brusreducering och skärpning, använda ett ansiktsbevarande läge om tillgängligt, och sedan återinföra en touch av kornighet så att resultatet känns mindre plastigt och mer fotografiskt.
Vanliga AI-uppskalningsartefakter att hålla utkik efter
Typiska tells inkluderar glorior runt kanter, upprepade texturmönster (som kopiera-klistra-block), krispig mikrokontrast och text som förvandlas till "nästan bokstäver". I diffusionsbaserade arbetsflöden kan man också se detaljdrift där små funktioner subtilt förändras. För video är flimmer och krypande detaljer över bildrutor stora varningssignaler. Om det bara ser bra ut vid extrem zoom är inställningarna förmodligen för aggressiva.
Hur GAN-, CNN- och diffusionsuppskalare tenderar att skilja sig åt i resultat
CNN-baserad superupplösning tenderar att vara stadigare och mer förutsägbar, men den kan se "bearbetad" ut om den ansträngs hårt. GAN-baserade alternativ (ESRGAN-stil) producerar ofta en mer kraftfull textur och upplevd skärpa, men de kan hallucinera felaktiga detaljer, särskilt på ansikten. Diffusionsbaserad uppskalning kan generera vackra, trovärdiga detaljer, men de kan avvika från den ursprungliga strukturen om väglednings- eller styrkinställningarna är för starka.
En praktisk inställningsstrategi för att undvika ett "för AI"-utseende
Börja konservativt: skala upp med 2× eller 4× innan du siktar på extrema faktorer. Om ansiktena ser plastiga ut, minska brusreducering och skärpa och prova ett ansiktsmedvetet läge. Om texturerna blir för intensiva, minska detaljförbättringen och överväg att lägga till subtil kornighet efteråt. Om kanterna lyser, minska skärpan och kontrollera halo- eller artefaktreducering. I många pipelines vinner "mindre" eftersom det bevarar trovärdig realism.
Hantera gamla skanningar eller kraftigt JPEG-komprimerade bilder före uppskalning
Komprimerade bilder är knepiga eftersom modeller kan behandla blockartefakter som verklig textur och förstärka dem. Ett vanligt arbetsflöde är att först ta bort eller avblockera artefakter, sedan uppskalning och sedan lätt skärpning endast om det behövs. För skanningar kan en varsam rengöring hjälpa modellen att fokusera på den faktiska strukturen snarare än skador. Målet är att minska "falska textursignaler" så att den som skalar upp inte tvingas göra säkra gissningar från brusiga indata.
Varför uppskalning av video är svårare än uppskalning av foton
Videouppskalning måste vara konsekvent över alla bildrutor, inte bara bra på en stillbild. Om detaljer flimrar från bildruta till bildruta blir resultatet snabbt störande. Videofokuserade metoder använder temporal information från angränsande bildrutor för att stabilisera rekonstruktionen och undvika skimrande artefakter. Många arbetsflöden inkluderar även brusreducering, deinterlacing för vissa källor och valfri återinföring av kornighet så att hela sekvensen känns sammanhängande snarare än artificiellt skarp.
När AI-uppskalning inte är lämplig eller riskabel att förlita sig på
AI-uppskalning behandlas bäst som förbättring, inte bevis. I viktiga sammanhang som journalistik, juridiska bevis, medicinsk avbildning eller forensiskt arbete kan generering av "trovärdiga" pixlar vara vilseledande eftersom det kan lägga till detaljer som inte fångades. En säkrare inramning är att använda den illustrativt och visa att en AI-process rekonstruerade detaljer. Om återgivning är avgörande, bevara originalen och dokumentera varje bearbetningssteg och inställning.
Referenser
-
arXiv - Djupinlärning för superupplösning av bilder: En undersökning - arxiv.org
-
arXiv - Bildsuperupplösning med djupa faltningsnätverk (SRCNN) - arxiv.org
-
arXiv - Real-ESRGAN - arxiv.org
-
arXiv - ESRGAN - arxiv.org
-
arXiv - SR3 - arxiv.org
-
NVIDIA-utvecklare - NVIDIA DLSS - developer.nvidia.com
-
AMD GPUOpen - FidelityFX Super Resolution 2 - gpuopen.com
-
The Computer Vision Foundation (CVF) Open Access - BasicVSR: Sökandet efter viktiga komponenter i videosuperupplösning (CVPR 2021) - openaccess.thecvf.com
-
arXiv - Generativa adversariella nätverk - arxiv.org
-
arXiv - SRGAN - arxiv.org
-
arXiv - Perceptuella förluster (Johnson et al., 2016) - arxiv.org
-
GitHub - Real-ESRGAN-repo (kakelalternativ) - github.com
-
Wikipedia - Bikubisk interpolering - wikipedia.org
-
Topaz Labs - Topaz Foto - topazlabs.com
-
Topaz Labs - Topaz Video - topazlabs.com
-
Adobes hjälpcenter - Adobe Enhance > Superupplösning - helpx.adobe.com
-
NIST / OSAC - Standardguide för kriminalteknisk digital bildhantering (version 1.0) - nist.gov
-
SWGDE - Riktlinjer för forensisk bildanalys - swgde.org