Deepfakes- en fremtidig trussel mot samfunnet?
Artikkel - Linnea J. Asrum
Kunstig intelligens har åpnet opp muligheten for bruk av nye manipuleringsteknikker. Dette har gitt liv til såkalte deepfakes som blir vanskeligere å avsløre når teknologien videre utvikles. Hvordan skal vi klare å avsløre stadig mer virkelighetsnære deepfakes i fremtiden, og vil det være en potensiell trussel for samfunnet?
Mobilen følger med i lomma vår til enhver tid. Den gjør oss tilgjengelig på sosiale medier og vi får mulighet til å sjekke internett kontinuerlig. Teknologien har med andre ord gjort livet enklere for mange og vi er mer tilgjengelig selv om det ikke er fysisk.
Men som med all annen utvikling, bringer også teknologisk utvikling med seg noen skyggesider som kan virke både skremmende og overgripende for mange.
De fleste har hørt, sett eller erfart at internett brukes på en uærlig måte ved å blant annet fremstille noe eller noen på en måte som ikke gjenspeiler virkeligheten.
Et eksempel er utbredelsen av såkalte deepfakes. Fenomenet oppsto i 2017 da en Reddit-bruker manipulerte kjente ansikter inn i pornofilmer.
Det baseres på kunstig intelligens som lar folk bytte ut ansikter og stemmer ved bruk av algoritmer. Videoer og lydopptak kan også bli redigert og manipulert, og det skumle med denne type redigering er at de kan se tilnærmet virkelighetsnære ut, noe som gjør noen av dem nesten umulig å avsløre.
Det er spesielt vanskelig å avsløre når de fleste av oss har en tendens til å scrolle gjennom sosiale medier og internett med en halvveis tilstedeværelse. Vi er ikke alltid like observante på det som skjer på skjermen foran oss.
Deepfakes, som ikke nødvendigvis trenger å være så bra laget, vil uansett virke troverdige når vi sitter i en situasjon hvor vår oppmerksomhet og tilstedeværelse ikke er helt på topp. Det kan potensielt medføre rykteeffekter og videre spredning av deepfakes.
Allikevel er ikke fenomenet en potensiell trussel så langt. De fleste blir avslørt, men rykteeffekten som ofte oppstår kan være ubehagelig for de som blir utsatt for det.
Offentlige personer offer for uærlig fremstillinger
De fleste har sikkert sett eller hørt om videoen av Barack Obama i 2018 hvor han kaller president Trump «a total and complete dipshit».
Det er som oftest kjente, offentlige mennesker med et enormt stort nettverk som blir utsatt for slike manipuleringsteknikker. Hensikten er ofte å henge dem ut, eller fremstille de på en måte som fanger oppmerksomhet ved å legge på kommentarer som den Obama ga Trump. Deepfakes-fenomenet startet som nevnt med en Reddit-bruker som brukte kjendiser sine ansikter i pornofilmer. Flere har også i etterkant erfart å finne ansiktet sitt i slike videoer.
NRK skrev en artikkel tidligere i år at amerikanske myndigheter legger ned mye arbeid for å bekjempe manipulerte videoer og bilder før presidentvalget. Mediene er viktige informasjonskilder i valgperioden, og den amerikanske valgkampen har hatt en tendens til å lene seg på innhold som kan sette motstanderen i dårlig lys. Dette var spesielt synlig da Trump og Clinton kjempet mot hverandre. Deepfakes kan potensielt brukes som et middel i valgkampen, noe myndighetene har uttrykt en redsel for. Tenker vi verste scenario kan det påvirke valget og vår oppfatning av kandidatene. Dette understrekker utbredelsen og faren ved dette fenomenet.
Hvordan spotte deepfakes?
Til nå har deepfakes for det meste blitt brukt til ren underholdning eller for å poengtere faren ved bildemanipulering. Allikevel er det tilfeller der ute som er skremmende vanskelig å avsløre, og er hensikten bak dem vonde, kan dette medføre betydelige konsekvenser for samfunnet i fremtiden. Når vi allerede ser at myndighetene i land trapper opp innsatsen for å avdekke deepfakes, er det ikke helt bak mål å anta at det er en trussel som ikke vil forsvinne med det første.
Teknologien vil fortsette å utvikles, så teknikkene for å avsløre falske framstillinger må klare å holde tett med denne utviklingen.
NRK beta skriver at Facebook blant annet har laget nye regler for manipulert medieinnhold, og at slikt innhold fjernes hvis det oppfyller to kriterier: videoen må ha blitt redigert for å endre det personen sier, samt at kunstig intelligens og maskinlære må ha blitt brukt.
En annen mediekanal, The Guardian har skrevet en artikkel med en enkel oppskrift som forklarer hvor lett man kan lage deepfakes, men også mulige tegn å se etter for å avsløre dem. Endel deepfakes der ute er som nevnt ikke av noe god kvalitet foreløpig, og er dermed ikke så vanskelige å avsløre. Blant annet kan mennesker i manipulerte bilder blunke på en unormal måte, munnpartiet kan ofte henge etter lyden, eller så kan ansiktet ha en merkelig form med unormale bevegelser.
kildekritisk uavhengig av hvor du er på internett
Deepfakes bidrar til en uærlig fremstilling av mennesker, og vil på ingen måte forsvinne med det første. Det vil snarere fortsette å florere på internett, og bruken av det vil forbedres i takt med teknologisk utvikling.
Vi får erfare at teknologien sine skyggesider blir vanskeligere å kontrollere, og det skremmer mange. At sosiale plattformer som Facebook og nasjonale myndigheter ser alvoret i deepfakes indikerer at vi vil få verktøy i fremtiden som gjør det lettere for oss å avsløre dem. Allikevel vil det være viktig at hver enkelt av oss stiller oss kritiske til det som ses, høres og leses om på nett.