Uanset om sociale mediesider politirolerer deres platforme, der bruger mennesker eller algoritmer, holder indholdsmoderation ikke brugerne i sikkerhed, siger Jess Brough

Siden Meta annoncerede en stopper for tredjepartsfakturering og hævdede, at det frigav sig fra “samfundsmæssigt og politisk pres til moderat indhold”, har brugere af sociale medier stillet spørgsmålstegn ved værdien af indholdsmoderation. Er det et vigtigt værktøj til at beskytte en platforms sikkerhed og effektivitet eller en systematisk censurmetode? Efter min mening repræsenterer indholdsmoderation blot et brudt system-det umættelige krav om menneskeligt offer af hensyn til teknologisk udvikling og dets anvendelse som et slør til at skjule de profitdrevne motiver for sociale medievirksomheder.
Indholdsmodering er indlejret i de juridiske rammer for online platforme i årtier som en måde at forhindre skadelig adfærd i at sprede sig på disse steder, hvad enten det er hadudtalelse eller udnyttelse. Med platforme, der begynder at favorisere algoritmisk detektion frem for human-drevet indholdsmoderation, har feedback fokuseret på jobtab og den potentielle skade, der er stillet af ineffektive systemer.
Disse bekymringer er godt placeret: platforme, der er mere afhængige af algoritmer, banker på beregningskapaciteter, der simpelthen endnu ikke findes for nøjagtigt at opdage kompleks opførsel og mening. Brug af store sprogmodeller til at bestemme forskellen mellem humor og overtrædelse er for eksempel kompliceret af det faktum, at denne sondring er subjektiv og hænger sammen med at skifte sociale normer. Mange brugere har afvejet disse risici sammen med afskedigelserne og har konkluderet, at menneskelig-baseret indholdsmoderation skal værdsættes og opretholdes-dette er de mennesker, der holder os i sikkerhed.
Dog glemmer vi ofte, at der er sikkerhedsskade bundet til denne sans for sikkerhed. Moderatorer udsættes for billeder og information, som de fleste af os næppe kan forestille sig. Det “indhold”, de engagerer sig i, kan omfatte alt fra fornærmende sprog til videoer af grafiske halshugging og seksuelt misbrug af børn. De ser indhold som denne dag på dag ud – ofte i timevis – som en del af deres mærkningsopgaver. Vi, brugerne, er noget afskærmet fra denne information, men først efter at de har traumatiseret ofte lavt betalte og sårbare arbejdstagere.
Disse job er allerede underkompenseret og undervurderet; Nu vælger sociale medieplatforme som Tiktok, Meta og X at investere endnu mindre i deres arbejdsstyrke. Dermed afslører de noget afgørende for disse websteder, der er kommet til at kræve så meget af vores tid. Når det kommer til rentabilitet, er en sikker og glad brugerbase ikke noget match for det enorme potentiale til at høste data. Risikoen ved dårlig indholdsmoderation – uanset om vi ser usmagelige billeder og tekst, eller om vi er ofre for online mobning – er kun sammensat af, hvor meget af os selv vi allerede er frit afslørende.
For mange steder involverer indholdsmoderation allerede både menneskelig og algoritmisk mærkning. Efterhånden som modelleringen udvikler sig, vil disse algoritmer blive mere sofistikerede, teoretisk forbedre brugeroplevelsen. Men vi må huske, at bag sociale medieplatforme er profitdrevne virksomheder, og uanset hvad der er kategorisering af vores data, forbliver implikationen den samme: disse virksomheder indsamler en astronomisk mængde information om os og de mennesker, som vi interagerer med, og de kan bruge disse oplysninger på næsten enhver måde på ethvert tidspunkt.
Store sociale medier er blevet så vigtige for vores daglige liv og vores arbejde, at vi ikke kun har været villige til at ignorere den frigjorte arbejdsstyrke bag maskinen, vi har også accepteret vores egen sårbarhed over for indflydelse og udnyttelse. Fremskridt i algoritmisk moderation vil ikke redde os; De vil kun gøre det muligt for os at give flere af os selv væk.
Jess Brough er en psykolinguist og forsker af sprogfordrejninger