Bliver Keir Starmer rådgivet af AI? Den britiske regering fortæller os ikke

Den britiske regerings Redbox AI -chatbot bruges af tusinder af embedsmænd, men en mangel på gennemsigtighed om nøjagtigt, hvordan de bruger det, har eksperter

Den britiske premierminister, Keir Starmer, ønsker at gøre landet til en verdensleder inden for kunstig intelligens

Tusinder af embedsmænd i hjertet af den britiske regering, inklusive dem, der arbejder direkte for at støtte premierminister Keir Starmer, bruger en proprietær kunstig intelligenschatbot til at udføre deres arbejde, Ny videnskabsmand kan afsløre. Tjenestemænd har nægtet at afsløre på posten nøjagtigt, hvordan værktøjet bruges, uanset om premierministeren modtager råd, der er forberedt ved hjælp af AI, eller hvordan embedsmænd formindsker risikoen for unøjagtige eller partiske AI -output. Eksperter siger, at den manglende afsløring rejser bekymring for regeringens gennemsigtighed og nøjagtigheden af ​​information, der bruges i regeringen.

Efter at have sikret den verdens første frigivelse af ChatGPT-logfiler under lovgivning om frihedsinformation (FOI), Ny videnskabsmand Spurgte 20 regeringsafdelinger om optegnelser over deres interaktion med Redbox, et generativt AI -værktøj udviklet i huset og prøvet blandt det britiske regeringspersonale. Den store sprogmodel-drevne chatbot giver brugerne mulighed for at forhøre regeringsdokumenter og “generere første udkast til orienteringer”, ifølge en af ​​menneskerne bag dens udvikling. Tidlige retssager oplevede en embedsmand at have syntetiseret 50 dokumenter “på få sekunder” snarere end en hel dags arbejde.

Alle de kontaktede afdelinger sagde enten, at de ikke brugte Redbox eller afviste at give udskrifterne af interaktioner med værktøjet og hævdede det Ny videnskabsmand‘s anmodninger var “irriterende”, et officielt udtryk, der blev brugt til at svare på FOI -anmodninger om, at informationskommissærens kontor definerer som “sandsynligvis at forårsage et uforholdsmæssigt eller uberettiget niveau af nød, forstyrrelse eller irritation”.

To afdelinger gav dog nogle oplysninger om deres brug af Redbox. Kabinetkontoret, der støtter premierministeren, sagde, at 3000 mennesker i sin afdeling havde deltaget i i alt 30.000 chats med Redbox. Den sagde, at gennemgang af disse chats for at redigere eventuelle følsomme oplysninger, før de frigiver dem under FOI, ville kræve mere end et års arbejde. Department for Business and Trade afviste også, idet han oplyste, at den havde “over 13.000 anmodninger og svar”, og at gennemgå dem til frigivelse ville ikke være muligt.

Når de blev stillet opfølgende spørgsmål om brugen af ​​Redbox, henviste begge afdelinger Ny videnskabsmand Til Department for Science, Innovation and Technology (DSIT), der fører tilsyn med værktøjet. DSIT afviste at besvare specifikke spørgsmål om, hvorvidt premierministeren eller andre kabinetsministre modtager rådgivning, der er udarbejdet ved hjælp af AI -værktøjer.

En DSIT -talsmand fortalte Ny videnskabsmand: ”Ingen skal bruge tid på noget, AI kan gøre bedre og hurtigere. Indbygget Whitehall, Redbox hjælper os med at udnytte kraften i AI på en sikker, sikker og praktisk måde – hvilket gør det lettere for embedsmænd at opsummere dokumenter, udkast til dagsordener og mere fremhæver dette i sidste ende vores arbejde og frigør embedsmænd at fokusere på at forme politikken og forbedre tjenesterne – der driver ændringen i landet.

Men brugen af ​​generative AI -værktøjer vedrører nogle eksperter. Store sprogmodeller har veldokumenterede problemer omkring bias og nøjagtighed, der er vanskelige at afbøde, så vi har ingen måde at vide, om Redbox giver information af god kvalitet. DSIT afviste at besvare specifikke spørgsmål om, hvordan brugere af Redbox undgår unøjagtigheder eller bias.

”Mit spørgsmål her er, at regeringen skal tjene offentligheden, og en del af denne tjeneste er, at vi-som skatteydere, som vælgerne, som vælgerne-burde have en vis mængde adgang til at forstå, hvordan beslutninger træffes, og hvad processerne er med hensyn til beslutningstagning,” siger Catherine Flick ved University of Staffordshire, UK.

Fordi generative AI -værktøjer er sorte kasser, er flick bekymret over, at det ikke er let at teste eller forstå, hvordan det når et bestemt output, såsom at fremhæve visse aspekter af et dokument over andre. Regeringens uvillighed til at dele disse oplysninger reducerer gennemsigtighed yderligere, siger hun.

Denne mangel på gennemsigtighed strækker sig til en tredje regeringsafdeling, statskassen. Som svar på FOI -anmodningen fortalte statskassen Ny videnskabsmand At dets personale ikke har adgang til Redbox, og at “GPT -værktøjer internt tilgængelige inden for HM (Hans Majestæt) Treasury ikke bevarer hurtig historie”. Præcis hvilket GPT -værktøj dette refererer til er uklart – mens ChatGPT er det mest berømte eksempel, er andre store sprogmodeller også kendt som GPTS. Responsen antyder, at statskassen bruger AI -værktøjer, men ikke holder omfattende poster over deres anvendelse. Skatkammeret svarede ikke på Ny videnskabsmand‘s anmodning om afklaring.

”Hvis de ikke bevarer de anvisninger, der bruges, er det svært at få nogen form for idé om, hvordan man gentager beslutningsprocesserne der,” siger Flick.

Jon Baines hos det britiske advokatfirma Mishcon de Reya siger, at det er usædvanligt at vælge ikke at registrere disse oplysninger. ”Jeg synes, det er overraskende, at regeringen siger, at den ikke kan hente anmodninger, der er indført til sine interne GPT -systemer.” Mens domstole har truffet afgørelse om, at offentlige organer ikke behøver at føre offentlige poster inden arkivering, “god informationsstyring vil antyde, at det stadig kan være meget vigtigt at opbevare poster, især hvor de måske har været brugt til at udvikle eller informere politik,” siger han.

Imidlertid siger databeskyttelsesekspert Tim Turner, at statskassen er inden for sine rettigheder til ikke at beholde AI -anmodninger i henhold til FOI -love: “Jeg tror, ​​at medmindre der er en specifik juridisk eller civil service -regel om arten af ​​dataene, kan de gøre dette.”