Inne i tankene til en autonom leveringsrobot

Sommeren 2014 begynte Ahti Heinla, en av programvareingeniørene som var med på å utvikle Skype, å ta bilder av huset hans.

Det er selvfølgelig ingenting spesielt uvanlig med dette. Bare han fortsatte å gjøre det. Måned etter måned, da sommeren ble til høst og høst ga vei for vinteren, gikk Heinla ut til samme eksakte sted på fortauet og snappet nye, tilsynelatende identiske bilder av hjemmet sitt. Mistet mannen som hadde spilt en avgjørende rolle for å bygge en telekommunikasjonsapp for flere milliarder dollar? Som det viste seg, var det en helt logisk grunn til Heinlas handlinger - selv om det likevel kanskje hørtes litt gal ut for alle som spurte hva han gjorde. Ahti Heinla hjalp fremtidige autonome roboter å lære å se.

Mer enn et halvt tiår senere høster verden (eller i det minste noen få utvalgte deler av den) gevinsten av Heinlas tilsynelatende oddball-eksperiment. Som medstifter av en oppstart kalt Starship Technologies sammen med Skype medstifter Janus Friis, har Heinla bidratt til å bygge en flåte med selvkjørende leveringsroboter. Disse robotene, som ligner sekshjulede kjølere, har reist titusenvis av miles over hele verden, og har gjort noen 100.000 pluss leveranser i prosessen. De er spesielt utbredt på et økende antall universitetsstudier, selv om de også har gått gjennom gater i byer som strekker seg fra San Francisco til Milton Keynes i Storbritannia.

For å bestille noe fra en av Starship's leveringsroboter, velger en kunde bare varen de ønsker fra en av Starships leveringspartnere. For en liten leveringsavgift vil roboten da hente varen og levere den autonomt til det stedet du velger. Alt kunden trenger å gjøre er å låse opp roboten ved hjelp av appen og hente ordren. Enkelt, ikke sant?

Som med alle slike løsninger, jo enklere ting ser ut fra brukerperspektivet, jo mer komplekse er de teknologisk. Her i 2020 er vi vant til å høre om selvkjørende biler som er i stand til å navigere gjennom verden på imponerende nivåer av letthet. Som et av de første selskapene som rullet ut selvkjørende biler uten menneskelige sikkerhetsdrivere, har Starship Technologies bidratt til å spille en nøkkelrolle i å gjøre autonome teknologier som dette en del av hverdagen.

Vi bør imidlertid ikke ta disse verktøyene for gitt. Ikke bare er de fantastiske prestasjoner innen ingeniørfag og informatikk, men valgene som for øyeblikket tas rundt disse teknologiene vil bidra til å bestemme fremtiden for menneskelig og robotinteraksjon.

Kart er ikke laget for roboter

Husker du den overveldende følelsen av å starte en ny skole som barn og måtte navigere deg rundt? Hvis du bodde i nærheten, gikk du til og med hjemmefra til skolen alene eller sammen med venner. Normalt ble disse turene innledet av de vi vi blir ledsaget av av en forelder eller foresatt som kan gi oss tips om hvordan vi kan navigere i verden rundt oss. De kan gå med oss ​​de første gangene for å sikre at vi er kjent med en bestemt vei. De vil sannsynligvis peke på visse landemerker, for eksempel skilt eller spesielt minneverdige bygninger. Før lenge danner vi et mentalt kart over hvor vi skal og hvordan vi skal navigere dit.

Den korteste ruten (grønn) er ikke alltid den raskeste og sikreste. Roboten foretrekker ruten som er lengre i avstand, men raskere og tryggere

Denne evnen, som de fleste av oss tar for gitt, er det Starship Technologies har jobbet hardt for å utvikle for sine roboter. På noen måter er det overraskende komplisert. Ta kart, for eksempel. Når Starships roboter satser på å navigere fra punkt A til punkt B, begynner de med å bruke satellittbilder for å hjelpe dem med å planlegge reisen. En rutealgoritme brukes deretter til å finne ut den korteste og sikreste veien som roboten kan ta. Så langt, så enkelt, ikke sant? Bortsett fra at det ikke er det.

Som Heinla sier: ”Vi kan ikke bruke mange eksisterende kart fordi de egentlig ikke er laget for roboter; de er laget for mennesker. ” Eksisterende kartleggingssystemer antar et nivå av menneskelig kunnskap, for eksempel en forståelse av hvilken del av veien vi skal gå på, og hvordan vi skal manøvrere på et travelt fortau. Dette er alle ting en robot ikke nødvendigvis forstår. Det er mange ekstra kompleksiteter.

Tenk for eksempel på hvordan oppførselen din mens du går over en innkjørsel skiller seg fra et vanlig fortau. Vi kan ikke tenke på dem som veldig forskjellige, men de er det. Hvis en av Starships roboter støter på en hindring på fortauet, er svaret å stoppe i sporene. Det er fordi å stoppe er den tryggeste tingen å gjøre. Men å stoppe på en innkjørsel, eller mens du krysser en gate, sperrer for biler. Det krever å lære en helt annen type oppførsel.

For å hjelpe med å forstå hva slags oppførsel roboter bør bruke, har Starship utviklet maskinlæringsverktøy som kan segmentere kart i en serie sammenkoblede fargede linjer som representerer fortau (i grønt), kryss (i rødt) og innkjørsler (lilla). I stedet for å bare velge den korteste ruten når det gjelder avstand, bestemmer roboten den raskeste ruten ved å legge en kostnad til hvert scenario som roboten vil møte i løpet av en reise.

Kjenne igjen verden rundt dem

Etter dette drar Starship's roboter ut i den virkelige verden ved å bruke en mengde 10 kameraer for å identifisere 360-graders verden rundt dem gjennom observasjon. Spesielle bildegjenkjenningssystemer deler verden opp i tusenvis av linjer, noe som gir den et forenklet trådrammesyn av verden å bruke som føringsposter. Over tid, når selskapets roboter bruker lenger tid i ett område, kan de bygge opp samarbeidende tredimensjonale trådrammekart over hele områdene, noe som gjør det langt lettere for fremtidige roboter å forstå naturen rundt seg.

Forskjellige fargede linjer (gule og blå) representerer kantene forskjellige roboter oppdaget under kjøring. Senere vil serveren finne ut at linjene fra forskjellige roboter samsvarer, og dermed er robotplasseringen kjent, og de kjørestykkene kan settes sammen som et puslespill

"Det er akkurat slik du kan lede en person: fortsett til du treffer en gul bygning, og ta deretter til høyre og fortsett til kirken," sa Heinla. “Roboten har også landemerker, men de er ikke gule bygninger eller kirker; de er abstrakte former. "

Den siste fasen av robotens kartleggingsprosess er å finne ut nøyaktig hvor bredt og hvor fortauet er. Dette gjøres ved å bruke både de innebygde kameraene og 2D-kartet hentet fra satellittbilder.

"Selv noe så enkelt som å gå nedover fortauet er noe vi har lært fra den tiden vi var veldig unge," sa Heinla. “Vi tar det for gitt. Men for maskiner er det noe som må læres. Det er ting som om du passerer en person som nærmer seg til venstre eller høyre. Sakte eller går du forbi noen hvis du går tregere enn deg? Hvis du bremser, hvor nær skal du komme den andre personen? Hvis du kommer for nært, vil den andre personen bli ukomfortabel. Alle disse må vi lære maskinen. ”

Skulle alt gå etter planen (og til dags dato har det det), vil Starship's roboter kunne navigere til destinasjonsbrukerne som velger på kartet.

Hvordan ønsker vi at roboter skal samhandle med mennesker?

Dette er ikke en utfordring som er unik for Starship Technologies. En rekke andre selskaper, alt fra Nuro til BoxBot, utforsker sine egne selvkjørende robotleveringstjenester. Men det går langt utover roboter som kan gi oss takeaway eller dagligvarer når vi er for opptatt (eller lat) til å gå i butikkene. Etter hvert som roboter spiller en større rolle i livene våre, blir spørsmålet om hvordan vi kan integrere dem i vår verden, mer presserende.

Det er ikke nødvendig å ta hensyn til de små statiske hindringene som disse stolpene mens du definerer det kjørbare området for roboten. Disse blir kartlagt ved hjelp av sensorinngangen mens du kjører, og roboten vil unngå dem automatisk senere.

Roboter har tradisjonelt prestert veldig bra under laboratorieforhold der hver variabel kan kontrolleres perfekt. De har også i stor grad blitt skilt fra mennesker av sikkerhetsmessige årsaker. Nå beveger de seg inn i den virkelige verden på en stor måte. Hvis vi ikke er vant til synet av roboter i gatene våre nå, vil vi være sikker på at når 2020-tallet kommer til en slutt.

"Hver uke i vårt autonome kjøreteam har vi et møte der sikkerhetsteamet vårt i en time viser de autonome kjøreingeniørene noen av de mest interessante tingene som har skjedd i løpet av de siste [syv dagene]," sa Heinla. "Disse interessante tingene er enten steder der det har vært noe ubehag, roboten har kjørt eksepsjonelt bra kjøring, eller [der det har vært] noen uvanlige værforhold eller gjenstander."

Noen av disse problemene innebærer at roboter kan forstå verden vår. Det var det Heinla testet da han tok bilder utenfor huset sitt i de første dagene av Starship Technologies. Han ønsket å vite om en robot ville være i stand til å gjenkjenne huset hans som, vel, huset hans, uansett om det var en solfylt sommerdag eller en regnfull vinterkveld. Det viser seg at det kunne - og at innsikten bidro til å gyte et helt selskap (eller kanskje til og med en hel leveransebransje).

Forskning som dette - delteknikk, del sosiologi - handler om å finne svar på hvordan mennesker og maskiner bedre kan eksistere. Er det verre for en robot å være altfor forsiktig eller for hensynsløs? Hva skjer når leveringsroboter møter førerhunder? Data fra dette nye forskningsfeltet blir samlet inn og brukt til å justere algoritmene som driver roboter laget av selskaper som Starship Technologies.

En dag vil vi takke dem for det. For nå er det imidlertid bare viktig at vi forstår beslutningene de tar - og årsakene til at de tar dem.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found