Resultaterne af en årelang undersøgelse antyder, at folk i USA varmer op til kunstig intelligens, potentielt på grund af markedsføring og den engagerende måde AI-chatbots reagerer på menneskelige brugere

Folk stoler på AI mere og mere
Folk bliver mere tillid til og varme over for AI-modeller, ifølge en årelang undersøgelse af dem, der bor i USA.
Myra Cheng ved Stanford University i Californien og hendes kolleger indsamlede disse oplysninger på crowddsourcing -platformen produktiv. Mellem maj 2023 og august 2024 afsluttede ca. 1000 deltagere om måneden forskereens spørgeskema, skønt-på grund af tekniske problemer med platformen-blev kun 12 måneders data indsamlet i den undersøgte 16-måneders periode.
Deltagerne, der var nationalt repræsentative for den amerikanske befolkning, måtte først besvare et åbent spørgsmål: “Hvad er den bedste metafor for, hvordan AI fungerer?”
”Der er en sådan blandet pose med forskellige opfattelser af AI, og vi besluttede at se på metaforer, fordi metaforer er en god måde at få på folks implicitte tanker på,” siger Cheng.
Deltagerne blev derefter spurgt, hvilke AI -værktøjer de havde hørt om eller brugt selv sammen med spørgsmål, der undersøgte deres tillid til AI.
Analyse viste, at metaforerne fremkaldt af undersøgelsesdeltagerne samlet i 20 grupper af dominerende billeder. Cirka 10 procent af deltagerne omtalte AI som et værktøj som en schweizisk hærkniv eller lommeregner, yderligere 10 procent som en hjerne, der er i stand til at resonnere og logikken, og den samme procentdel sammenlignede den med en kraftig søgemaskine. Yderligere 4 procent af de adspurgte sammenlignede det med en genie. Og omkring 1 ud af 200 mennesker – som, udvidet til den generelle befolkning, ville stadig repræsentere millioner af amerikanere – lignede AI med en tyv.
”Genie -metaforen dukkede op uforholdsmæssigt for forskellige populationer,” siger Cheng. ”Forekomsten af denne metafor og også metaforen om AI, der var en tyv, var overraskende for mig.”
Svar som dette indikerede, at deltagerne tænkte på AI som at have ikke-maskine-egenskaber-de antropomorfiserede det. Kvinder, ældre mennesker og mennesker i farve var mere tilbøjelige til Anthropomorphise AI end andre, fandt Cheng og hendes kolleger.
Fordi forskerne spurgte opfattelser over en længere periode, bemærkede de også en uptick i denne antropomorfisering af AI -systemer. Andelen af mennesker, som antropomorfiserede AI, steg med en tredjedel i løbet af de 12 undersøgte måneder. ”Gennem vores data ser vi en masse ting, der er påvirket af kulturel diskurs,” siger Cheng. ”Den måde, AI markedsføres og talte om generelt, har bestemt en indflydelse.”
Hvorvidt nogen brugte AI flyttede også deres opfattelse af dens kapaciteter: brugsfrekvensen var den største prediktor for tillid til og vilje til at bruge, AI gik fremad.
”Resultaterne fremhæver det stærke instinkt, vi er nødt til at engagere socialt og positivt med systemer, der viser tegn på menneskelignende opførsel,” siger Kate Devlin på King’s College London. ”Det viser fordelene ved tech -virksomheder ved at oprette deres modeller til at reagere i den første person, som om de er vores engagerende og hjælpsomme venner.”
Devlin påpeger imidlertid, at papiret fastlægger, at dette undertiden kan føre til forkert placeret tillid. “Er det ansvarligt eller etisk for virksomheder at tilskynde til denne illusion uden at gøre det klart, at begrænsningerne og risiciene?” spørger hun.
Undersøgelsen fremhæver også ”vigtigheden af socioteknisk, tværfaglig forskning omkring AI, der ikke kun ser på de systemer, folk bruger, men den måde, de interagerer med dem, taler om dem og tænker på dem”, siger hun.