Kunne hjernekomputer-interface lade os bebo robot-avatarer på Mars?

I den seneste rate af vores Future Chronicles -kolonnen, der udforsker en forestillet historie med opfindelser, der endnu ikke kommer, Rowan Hooper afslører, hvordan hjernekomputer-grænseflade lad os rejse til Mars via robot-avatarer i slutningen af ​​2020’erne

https://science.nasa.gov/mission/mars-2020-perseverance/ NASAs udholdenhed Mars Rover tog denne selfie, der består af 62 individuelle billeder, den 23. juli. En rock-kaldet? Cheyava Falls,? som har funktioner, der kan bære på spørgsmålet om, hvorvidt den røde planet var for længe siden til mikroskopisk liv, er til venstre for roveren nær midten af ​​billedet. NASA/JPL-CALTECH/MSSS

NASAs udholdenhed Mars Rover

I 2034 landede den første person på Mars. Mens hun ikke gik der fysisk, oplevede hun stadig planeten intimt. Hun udforskede en gammel floddelta og byggede en base. Hun satte et flag (Kinas) og udførte en detaljeret analyse af rockprøver. Hun opnåede alt dette ved at bebo en robot via en sofistikeret hjerne-computergrænseflade. Nogle mennesker hævdede, at kvinden havde – i en reel forstand – været i Mars.

Kritikere sagde, at hun ikke havde gjort det, fordi hendes krop altid var i et laboratorium i Beijing. Ah, men hende sind var på Mars, svarede hendes tilhængere. At der endda var et argument, viser, hvor langt hjernekomputergrænseflader (BCI’er) var forbedret. Og som med mange fremskridt beviste kunstig intelligens nøglen.

Den grundlæggende idé om en BCI er at hente signalerne om en levende hjerne og smide dem med elektronikken på en computer. Det er lettere sagt end gjort. Hjerneaktivitet er rodet, kommer fra flere steder og har overlappende og forstyrrende egenskaber og upræcise betydninger. Men forbedringer i neuroengineering og maskinlæring, der er i stand til at fortolke signalet, gjorde det muligt at registrere kompleks hjerneaktivitet fra elektroder, der er plantet til et motivs cortex, og oversætte det til en række handlinger.

Teknologien blev oprindeligt drevet af kirurger i håb om at forbedre livskvaliteten for mennesker med lammelse eller indesluttet syndrom. Den første BCI ved hjælp af elektroder blev implanteret i en lammet mand i 1998, bestående af kun to elektroder. Manden blev i stand til at stave ord på en computer ved at flytte markøren med sindet. Sådanne gennembrud var verdensændrende for mennesker, der ellers ikke var i stand til at kommunikere.

Problemet var, at elektroder var få, mens neuroner var nummereret i milliarder. Forbedringer i mikroelektrodekonstruktion gjorde det muligt for neurovidenskabsmænd at registrere mere hjerneaktivitet; I 2014 beboede Juliano Pinto, en paraplegisk, der ikke var i stand til at flytte sine ben, et eksoskelet og ved hjælp af Mind Control sparkede den første bold ved FIFA -verdensmesterskabet i Brasilien.

I 2023 brugte et schweizisk team en “elektrokortikografi” -array placeret på hjernen – men uden at trænge ind i det – for at hente signaler fra en lammet mands motoriske cortex og videresende dem til rygmarven. En grænseflade ved rygmarven sendte derefter signalerne til mandens ben, så han kunne gå igen. En lignende grænseflade gjorde det muligt for en kvinde, der ikke var i stand til at tale efter et slagtilfælde for at “bebo” en digital avatar og tale gennem den. I 2025 var en lammet mand i stand til at pilotere en drone; Til sidst kunne folk “bebo” sådanne droner.

Bevidsthed var flyttet til robotens krop – mennesket mente, at de var blevet avatar

I slutningen af ​​2020’erne kunne lammede mennesker beboer eksoskeletter og robotter ved at sende deres tanker til maskinen, ligesom folk havde gjort for at kontrollere markører på en skærm. Forskellen var, at signaler også gik den anden vej: fra maskine til menneske. Den menneskelige controllers sanser blev fodret direkte fra robotens kameraer og mikrofoner, og haptisk feedback – transmission af berøring ved hjælp af vibration og trykdragter – hjalp med at give brugeren en “reel” følelse af placering. Retinal- og cochleaimplantatteknologi var kommet nok til, at forskere kunne tilsidesætte de direkte input til andres øjne og ører og erstatte dem med input fra et fjerntilføring. Lignende input aktiveret lugt og smag.

Resultatet af alt dette: Folk kunne betjene en robot eksternt og se, høre og føle ting, som det interagerede med. De var i stand til at udforske og opleve ekstreme miljøer – de knusende dybder i havet, calderaen for en aktiv vulkan. Grænsen mellem selv og maskine blødgjort, især når robotten kunne fortolke følelsesmæssige signaler og bygge på arbejde af Ali Zia ved det australske nationale universitet i Canberra.

Robotter ville bevæge sig hurtigere, hvis den menneskelige controller var glad og ophidset, og mere forsigtigt, hvis personen var nervøs. En ansigtsvisning på roboten ville indikere en følelse som lykke eller forvirring, og derefter kunne et menneske forstå, hvad robotten var “følelse”. Brugerens bevidsthed flyttede fra deres krop til robotens; Mennesket mente, at de var blevet avataren, og dermed argumentet om, at den telepresentiske robot virkelig repræsenterede det første menneske på Mars.

Sådan var succes med disse rummissioner, at det var år før statsejede rumbureauer, der var forpligtet til risikoen og udgifterne til at sende mennesker. Endnu større succes kom med redningsrobotter, da de blev kaldt, som blev brugt som avatarer til at komme ind i brændende bygninger eller krigszoner og evakuere mennesker. Redningsrobotnavnet kom imidlertid til at henvise til den flugt, som lammede og indesluttede mennesker var i stand til at opnå fra deres senge.

Rowan Hooper er New Scientists podcast -redaktør og forfatteren af ​​How To Broes A Trillion Dollars: De 10 globale problemer, vi faktisk kan løse. Følg ham på bluesky @rowhoop.bsky.social