Hvordan lage roboter etiske ved å lære dem å si nei

lære ai roboter hvordan man sier nei matthias scheutz tufts Matthias Scheutz Kelvin Ma / Tufts University Enten det er smarttelefonen din som holder oversikt over favorittrestaurantene dine, eller nettleseren som holder øye med hvilke nettsteder du besøker oftest, er det sannsynligvis et stykke teknologi hjemme som lærer om deg.

Når datamaskiner forvandles fra verktøy til assistenter i løpet av de kommende årene, vil læringsbehovene til teknologien vi bruker daglig vokse eksponentielt. Disse tjenestene vil være mer sofistikerte og nå mye lenger enn i dag - men de må bli mye smartere før de gjør det.

Datasystemer, kunstig intelligens og hjelperroboter må treffe bøkene om en rekke emner - menneskelig samtale, kulturelle normer, sosial etikette og mer. Dagens forskere lærer AI leksjonene de trenger for å hjelpe morgendagens brukere, og kursplanen er ikke det du forventer.

De første trinnene mot smartere AI

I fjor, innenfor rammen av Human-Robot Interaction Laboratory ved Boston’s Tufts University, nærmet seg en liten robot kanten av et bord. Da han nådde dette stupet, bemerket roboten at overflaten den gikk på hadde kommet til en slutt, og sa til operatøren: "Beklager, jeg kan ikke gjøre det."

Da bekreftet maskinen at arbeidet som ble utført av Matthias Scheutz og Gordon Briggs hadde vært en suksess. Paret hadde tenkt seg å gi roboten muligheten til å avvise en forespørsel fra en menneskelig operatør, med testpersonens borddekning av selvbevaring som en demonstrasjon av systemet på jobben.

Scheutz og Briggs ’prosjekt er en del av en avgjørende gren av forskning på kunstig intelligens. Interaksjon mellom menneske og robot - noen ganger referert til som HRI - er et viktig element i vårt fortsatte arbeid mot praktisk anvendelse av AI. Det er lett å glemme, med roboter som i stor grad er en hypotetisk bekymring for de fleste, at disse maskinene en dag vil måtte integrere med menneskene de er ment å hjelpe.

Å lære en robot å gå er en ting. Å lære den samme roboten når det er trygt å krysse en vei, er ganske annerledes. Det er kjernen i prosjektet utført av Scheutz og Briggs. De ønsket å gi en robot muligheten til å avvise ordrer den er gitt, hvis det ser ut til at det å utføre oppgaven vil skade den.

For et menneske kan dette virke som et implisitt element i handlingen med å bevege seg. Men roboter har ikke "sunn fornuft."

Betydningen av ordet "nei"

Å lære en robot å nekte en ordre som sender den til å stupe til sin undergang, er av åpenbar fordel for roboten, og også for den som eier den. Men dens betydning strekker seg langt dypere. Å hjelpe en robot med å si “nei” betyr å hjelpe den å lære å bedømme implikasjonene av dens handlinger.

"På samme måte som vi ikke vil at mennesker blindt skal følge instruksjoner fra andre mennesker, vil vi ikke at instruerbare roboter skal utføre menneskelige ordrer uten å sjekke hva effekten er," sa Scheutz til Digital Trends.

Vi må lære roboter å adlyde kommandoer som ikke er etisk sunne.

“Instruksjoner kan være upassende i en gitt situasjon av mange grunner,” fortsatte han, “men viktigst av alt fordi de kan forårsake skade på mennesker eller skade eiendom, inkludert selve roboten. Ved å resonnere om mulige resultater av en instruert handling, kan roboten være i stand til å oppdage potensielle normbrudd og potensiell skade som følge av handlingen, og kan forsøke å dempe dem. ”

I hovedsak, når roboten får sin instruksjon om å gå fremover, sjekker den forespørselen mot den informasjonen den har tilgjengelig. Hvis noe virker fishy, ​​kan roboten så komme til å bekymre seg for den menneskelige operatøren, og til slutt avvise kommandoen direkte hvis instruktøren ikke har ekstra data for å dempe frykten.

Den vitenskapelige prosessen gir ikke en så fengende overskrift som trusselen om at en robot opprører mot oss mennesker. Tabloide aviser som Daily Mail rapporterte om Scheutz 'arbeid med en tegneserieoverskrift som spekulerer i vår arts forestående underkastelse i hendene på robotoverherrer. Vi her på DT er kjent for å tulle også om robotapokalypsen. Det er vanligvis morsomt, men i tilfeller som dette kan det skade forskernes evne til å få ut sitt budskap.

"Det vil alltid være svar som tar forskning ut av sammenheng og fokuserer på det som virker ubehagelig for oss, for eksempel ideen om at roboter ikke adlyder våre kommandoer," sa Scheutz som svar på Daily Mail-rapporten. "Det viktigste aspektet av vår forskning som slike fengende overskrifter ignorerer, er imidlertid å lære roboten å avvise kommandoer som er ikke etisk forsvarlig - og bare de. Ikke å være ulydig generelt. ”

Hva om for eksempel en liten gutt ba en husholdningsrobot om å dumpe varm kaffe over lillebroren sin som et sprell? Å sørge for at dette ikke kan finne sted er avgjørende for suksessen til ethvert selskap som produserer slik teknologi for forbrukermarkedet, og det er bare mulig hvis roboten har en bred database med sosiale og etiske normer å referere sammen med sin evne til å si "nei. ”

Legge til lag med kompleksitet

Mennesker vet å slutte å gå når de nærmer seg et bratt fall, eller hvorfor det er upassende å duse et spedbarn i varm kaffe. Våre erfaringer har fortalt oss hva som er farlig, og hva som bare betyr. Enten vi har gjort eller blitt fortalt om noe tidligere, kan vi trekke på informasjonen vi har lagret for å informere om vår oppførsel i en ny situasjon.

Roboter kan løse problemer basert på samme prinsipp. Men vi har ennå ikke produsert en datamaskin som kan lære som et menneske - og selv da er læringsetikk en prosess som tar år. Roboter må ha en levetid på informasjon tilgjengelig før de slippes løs i verden.

Omfanget av dette arbeidet er svimlende, langt utover det mange kan forvente. I tillegg til å lære roboten hvordan de skal utføre oppgaven de blir sendt ut til, er det et ekstra lag med kompleksitet som tilbys av de mange vanskelighetene med interaksjon mellom menneske og robot.

Andrew Moore er dekan ved School of Computer Sciences ved Carnegie Mellon University. I den rollen gir han støtte til en gruppe 2000 studenter og fakultetsmedlemmer, hvorav mange jobber innen felt relatert til robotikk, maskinlæring og AI.

"Vi er ansvarlige for å hjelpe oss med å finne ut hvordan året 2040 vil være å leve i," sa han til meg. "Så vi er også ansvarlige for at 2040 er et veldig godt år å leve i." Gitt at det er sannsynlig at hjelperoboter vil spille en rolle i den visjonen om fremtiden, har Moore god erfaring i forholdet mellom maskin og bruker. For å gi en ide om hvordan dette båndet vil utvikle seg i de kommende årene, bruker han det kjente eksemplet fra smarttelefonassistenten.

I dag har mange av oss en smarttelefon som kan svare på spørsmål som "hvem er den nåværende presidenten i USA?" og mer komplekse spørsmål som "hvor høye er USAs døtre?" Snart ser vi handlinger basert på disse spørsmålene blir vanlige. Du kan for eksempel be telefonen din om å bestille en ny pakke med bleier.

For å demonstrere neste trinn i utviklingen, la Moore frem et tilsynelatende uskadelig eksempel. "Har jeg tid til å ta en kaffe før neste møte?"

Mer om AI: Maskinlæringsalgoritme setter George W. Bushs ord i munnen til Barack Obama

"Under panseret er det mye kunnskap som må komme til datamaskinen for at datamaskinen skal kunne svare på spørsmålet," sa Moore. Mens dagens teknologi kan forstå spørsmålet, trenger systemet mye data å svare på. Hvordan er linjen på kaffebaren? Hvordan er trafikken? Hva slags drikke bestiller brukeren vanligvis? Å gi datamaskinen tilgang til disse dataene gir sine egne utfordringer.

AI-systemer vil trenge tilgang til en enorm mengde informasjon - hvorav noen er støpt i stein, hvorav noen endrer seg hele tiden - bare for å utføre de komplekse oppgavene vi forventer av dem på bare noen få år.

Moore illustrerer dette poenget ved å sammenligne stemmetonen en person kan ta når han snakker med sjefens sjef, eller en gammel venn. Et eller annet sted i databankene dine er det en kjerne av informasjon som forteller deg at førstnevnte bør behandles med visse sosiale signaler som ikke er like nødvendige når du snakker med sistnevnte.

Hvis du ber Google om å vise røde kjoler, og et av resultatene er en brødrister, faller det hele sammen.

Det er enkle ting for et menneske, men noe som må innpodes i AI. Og jo mer pressende oppgaven, jo viktigere blir presisjonen. Å spørre en assistent om du har kaffe er en ting. Men hva om du ble skadet, og trengte å vite hvilket sykehus som kunne nås raskest - og muligens trengte en robothjelp for å nå det? En feil blir plutselig livstruende.

"Det er faktisk ganske enkelt å skrive et maskinlæringsprogram hvor du trener det med mange eksempler," sa Moore. “Når du har gjort det arbeidet, ender du opp med en modell. Det fungerer ganske bra, og når vi bygger et slikt system, snakker vi om "nøyaktighet" og bruker setninger som "presisjon" og "husker." Det interessante er at det er ganske greit å få ting som er riktige 19 ganger ut av 20. ”

"For mange applikasjoner er det ganske bra nok. Men i mange andre applikasjoner - spesielt når det er sikkerhet involvert, eller der du stiller veldig kompliserte spørsmål - trenger du virkelig at systemet ditt har 99,9 prosent nøyaktighet. "

Brukertillit er også et problem. "[Hvis] du spør Google 'vis meg de 15 mest populære røde kjolene' og det kaster resultatene, og bare en av dem er faktisk en brødrister, så faller det hele sammen. Brukerne slutter å stole på det. ” En bruker som mister tilliten til en robot, vil sannsynligvis slutte å bruke den helt.

Undervisning i felles kunnskap

Selv om man ser bort fra de spesifikke oppgavene som hver enkelt implementering er designet for å oppnå, vil roboter og AI-er trenge en enorm mengde grunnleggende kunnskap for å operere i naturen. Alt fra sosiale signaler til sikkerhetsbestemmelser må være innprentet i maskinhjernen for å sikre at de lykkes.

Heldigvis gir andre felt en hånd i noen elementer i denne beregningsplanen. "Med ting som navigering, og med menneskelig ansiktsuttryksanalyse, er det en eksisterende vitenskapelig disiplin som faktisk har mange reelle data," sa Moore. Individuelle forskningsprosjekter kan ofte også omformuleres.

"Algoritmene vi jobber med er generelle," fortalte Matthias Scheutz meg, med henvisning til forskningen han og Gordon Briggs ledet ved Tufts University. "De kan brukes i ethvert domene, så lenge roboten har de nødvendige representasjonene av handlinger og normer for det domenet."

Moduler som kan gi en robot muligheten til å gjenkjenne menneskelige uttrykk, eller stoppe for å falle av et bord, har absolutt sitt bruk. Imidlertid vil hver imøtekomme en veldig liten del av maskinens grunnleggende krav til drift uten tilsyn. Et generalisert operativsystem kan presentere et grunnleggende nivå av felles kunnskap som lett kan deles mellom forskjellige implementeringer.

"En av de største finansiererne av denne typen arbeid er en gruppe som har finansiert mange andre ting som viste seg å være viktige," sa Moore. "Det er DARPA. De har en rekke store prosjekter som går i det de kaller ‘felles kunnskap for robotikk.’ ”

Hvis kunstig intelligens og hjelperoboter skal bli en realitet i en ikke altfor fjern fremtid, er det sannsynlig at noen versjoner av denne 'common knowledge for robotics' -plattformen vil være en avgjørende komponent. Det kan til og med være nøkkelen til bred mainstream-adopsjon.

Det er mye arbeid som skal gjøres før det finnes en kunnskapsbase som kan støtte den første bølgen av forbrukerroboter. Sluttproduktet kan være år unna, men grunnlaget som er nødvendig for å gjøre det lettere, er ikke science fiction.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found