Harmfulle algoritmer: baksiden av hyperpersonalisert innhold
Artikkel - Thea Sølling Nilsen
Som verdens mest nedlastede app er TikTok blitt svært populær, særlig blant barn og unge. Appens algoritme anbefaler deg innhold den tror du vil like, basert på hva du har vist interesse for tidligere. Problemet oppstår når sosiale mediers algoritmer begynner å anbefale unge og sårbare grupper skadelig innhold. Resultatet blir et kaninhull av selvskading og spiseforstyrrelser som kan ha alvorlige, og i verste fall dødelige, konsekvenser.
Spiseforstyrrelser + SoMe = sant
Trender kommer nesten alltid tilbake. Dette gjelder dessverre ikke bare for klær og musikksjangere, men også problematiske trender på nett. Såkalte eating disorder cultures er absolutt ikke et nytt fenomen, hvor unge jenter bringes sammen over fellesnevnere som spiseforstyrrelser og selvskading. Tumblr var en av de mest populære platformene på tidlig 2010-tallet. Det sosiale mediet er ikke lenger like stort som det en gang var, og har en noe problematisk arv hengende over seg.
Innhold om selvskading og spiseforstyrrelser ble et så stort problem på plattformen, at selskapet endte opp med å annonsere følgende endringer i 2012: de skulle nå forby blogger som aktivt promoterte selvskading, og moderere blogger som glorifiserte eller promoterte anoreksi, bulimi og andre spiseforstyrrelser. Dette hjalp dessverre ikke så mye som først håpet. Fellesskap som omhandlet, og ofte glorifiserte, disse temaene fortsatte å blomstre på Tumblr. Siden har trenden spredt seg til andre sosiale medier som Instagram og Twitter. Det var bare et spørsmål om tid før fenomenet ville spre seg til det som nå er verdens mest nedlastede app, TikTok.
Algoritmer som dreper
For algoritmen til TikTok er ikke som de andre sosiale mediene. Mange føler at appen kjenner dem skummelt godt, og den vet nøyaktig hva slags interesser man har. TikTok sier selv at algoritmen bruker interaksjonene dine med videoer til å lære hva du vil se mer av, som når du liker, kommenterer og deler. Men, undersøkelser av blant annet Wall Street Journal har vist at TikToks algoritme kun trenger én ting for å vite nøyaktig hva slags innhold som får deg til å scrolle lengst mulig: oppmerksomheten din. Det er så enkelt som hvor lenge du ser på hver enkelt video, hvilke du hopper rett forbi, hvilke du ser flere ganger, og så videre.
De siste årene har det kommet den ene avsløringen etter den andre om hvordan TikTok påvirker unges mentale helse negativt. Appens algoritme har skylden i mange av disse sakene. Amnesty publiserte i starten av november nye rapporter om hvordan TikTok eksponerer barn og unge for skadelig innhold, og at det er nettopp algoritmene som presenterer videoer om selvskading for sårbare barn. Unge som viser interesse for temaer rundt mental helse får feeden full av selvmord.
Ikke bare er disse kaninhullene unge kan falle ned i på sosiale medier skadelige, i verste fall ender de i dødsfall. I oktober 2022 ble Instagram og andre sosiale medier for første gang dømt skyldige i å bidra til en 14 år gammel jentes død - en jente som hadde scrollet gjennom innhold som omhandlet selvmord, selvskading og depresjon i flere måneder før hun selv tok sitt eget liv. Apper som Pinterest hadde aktivt sendt henne anbefalinger som “Depression Pins you may like”.
Under radaren
Det er dessverre sant, slik platformer som Instagram og TikTok påstår, at det ikke er mulig å fange opp alt av skadelig innhold på appene deres. Dette fordi en del av de som bruker appene har lært seg å jobbe rundt systemene deres. Et forholdsvis utbredt fenomen på flere sosiale medier, er små grupper (communities) av hovedsakelig unge jenter, som alle sliter med spiseforstyrelser, og bruker SoMe til å oppmuntre hverandre til å bli både sykere, tynnere og “flinkere”.
Gruppene og innleggene de publiserer kan være vanskeligere å oppdage, da de ofte er kreative med ord og uttrykk for å ikke bli oppdaget, som ved å med vilje skrive ord og uttrykk relatert til spiseforstyrrelser feil. Instagram har i det minste lagt inn en innsats for å forhindre skadelig innhold, og har fjernet hashtagger som kan hinte til selvskading og spiseforstyrrelser. Dersom du forsøker å søke opp disse søkeordene får du i stedet opp en automatisk melding om at hjelp er tilgjengelig, med tips om å ringe en hjelpetelefon eller snakke med en venn.
“Fordi mennesker har varierte interesser”
Instagram viser at de i alle fall prøver å begrense spredningen av skadelig innhold på appen. TikTok påstår at de aktivt jobber for det samme, men undersøkelser gjort av en rekke aviser i flere land viser hvor lett det er å falle ned i kaninhull med overveldende negativt og skadelig innhold på deres app. Wall Street Journal programmerte en bot til å være en 24-åring fra Kentucky, som viste interesse for videoer om depresjon og mental helse ved å se på disse videoene litt lenger enn resten av videoene den ble anbefalt av algoritmen. Etter kun en halvtimes scrolling var 93% av videoene boten fikk anbefalt depressivt innhold. En god del av de siste prosentene var reklame.
NRK programmerte en bot til å være en 13 år gammel gutt fra Nøtterøy, som likte og så lenger på videoer som omhandlet muskler, treningssentre eller kosttilskudd. Etter 5 timers scrolling handlet 90% av videoene boten fikk anbefalt om muskler og hvordan man skal bli større og sterkere. Resultatene er det samme: du får mer av det du viser interesse for, uavhengig om dette er bra for deg eller ikke.
I omtrent alle disse sakene skjer mer eller mindre det samme: En representant fra TikTok får funnene fra disse undersøkelsene presentert. De svarer, igjen og igjen, en variant av dette argumentet; eksperimentene er ikke representativt for ekte brukeroppførsel, fordi mennesker har varierte interesserer. Som jo for så vidt er sant. Men jeg har selv opplevd hvordan TikTok kan sende deg ned et kaninhull om ett veldig spesifikt tema i timesvis, og sist jeg sjekket er jeg et menneske med både varierte interesser og ekte brukeroppførsel.