Hvordan lærer vi roboter rett fra galt?

algoritme flekker forfalskninger på sosiale medier roboter riktig feil etikkRedaktørens merknad: Digital Trends har inngått samarbeid med WebVisions, den internasjonalt anerkjente design-, teknologi- og brukeropplevelseskonferansen, for å bidra til å bringe lysende Douglas Rushkoff til årets begivenhet i Portland, Oregon. Som en del av vårt partnerskap er vi også glade for å kunne inneholde utvalgte innhold fra WebVisions ’innsiktsfulle blogg, Word. Denne uken lurer bidragsyter Mark Wyner på hvordan vi skal lære om kunstig intelligens rett fra galt. Nyt!

Twitter har innrømmet at så mange som 23 millioner (8,5 prosent) av brukerkontiene er autonome Twitterbots. Mange er der for å øke produktiviteten, forske eller til og med ha det gøy. Likevel er mange opprettet med skadelige intensjoner. I begge tilfeller har botene vært kjent for å oppføre seg med tvilsom etikk - kanskje fordi de bare er mindre eksemplarer av kunstig intelligens (AI).

Mennesker bygger for tiden langt mer sofistikerte maskiner som vil møte spørsmål om etikk i monumentale skalaer. Selv i dødeligheten til mennesker. Så hvordan sørger vi for at de tar de riktige valgene når den tid kommer?

Bygg den inn eller lær den

Nøkkelfaktoren for å lykkes med å bygge autonome maskiner som sammenfaller symbiotisk med mennesker, er etikk. Og det er i utgangspunktet to måter å programmere etikk på maskiner:

Først kan du hardkode dem i operativsystemene deres. Bekymringen her er at etikk er subjektiv. Etikken i maskinen er betinget av etikken i skaperen. Men vi mennesker tilpasser oss ikke alltid vår moral. Vi kjemper om etiske forskjeller. Så når vi bygger autonome maskiner for å være etiske, bygger vi innenfor rammen av våre eksisterende forskjeller.

roboter-høyre-feil-etikk-2

For det andre kan du gi noen retningslinjer, og deretter la maskinen lære sin egen etikk basert på egne erfaringer. Denne passive tilnærmingen gir god plass til feiltolkninger av moral, betinget av atferd blir observert. Tenk på den nylige nedsmeltingen av Microsofts Twitter AI, Tay, som ble lurt til å tvitre rasistiske anklager og markedsføring av folkemord basert på en falsk slutning av akseptert etisk normalitet.

Et team ved Georgia Tech jobber med sistnevnte, og lærer kognitive systemer for å lære hvordan man skal oppføre seg på sosialt akseptable måter ved å lese historier. Et belønningssystem kalt Quixote skal hjelpe kognitive systemer med å identifisere hovedpersoner i historier, som maskinene bruker for å justere sine egne verdier med menneskers. Det er uklart hvilke metoder Microsoft brukte med Tay. Men hvis teknikkene deres var forebyggende, som med Georgia Techs læringssystem, er vi langt fra å solidisere etikken innen kunstig intelligens.

Etisk lammelse

Nå er alt dette basert på ideen om at en datamaskin til og med kan forstå etikk. Som Alan Winfield viser i studien sin Mot en etisk robot, når en datamaskin møter et etisk paradoks, er resultatet uforutsigbart, ofte lammende. I sin studie ble en kognitiv robot (A-robot) bedt om å redde en "menneskelig" robot (H-robot) fra fare. Da A-roboten bare kunne redde en av to H-roboter, raste den og innrømmet i sin egen forvirring, og sparte ingen av dem.

Det er en eldgammel filosofisk debatt om etikk er et spørsmål om fornuft eller følelser. Blant moderne psykologer er det enighet om at etisk beslutningstaking krever både rasjonelle og emosjonelle vurderinger. Som professor Paul Thagard bemerker i et stykke om dette emnet, er ”etiske vurderinger ofte svært emosjonelle når folk uttrykker sin sterke godkjennelse eller misbilligelse av forskjellige handlinger. Om de også er rasjonelle, avhenger av om den kognitive vurderingen som er en del av følelser, blir gjort bra eller dårlig. ”

Avgjørelser med konsekvenser

Så hvis kognitive maskiner ikke har etikk, hvem er ansvarlig når de bryter loven? For øyeblikket ser ingen ut til å vite det. Ryan Calo fra University of Washington School of Law bemerker: ”Robotikk kombinerer for første gang promiskuiteten til data med evnen til å gjøre fysisk skade; robotsystemer utfører oppgaver på måter som ikke kan forventes på forhånd; og roboter slør i økende grad grensen mellom person og instrument. ”

Prosessen for lovgivning er vanskelig treg, mens teknologi derimot skynder seg å eksponere.

Forbrytelsene kan også være ganske alvorlige. Den nederlandske utvikleren Jeffry van der Goot måtte forsvare seg - og hans Twitterbot - da politiet banket på døren hans og spurte om en drapstrussel sendt fra Twitter-kontoen hans. Så er det Random Darknet Shopper; en shopping bot med en ukentlig godtgjørelse på $ 100 i Bitcoin for å gjøre kjøp på Darknet for en kunstutstilling. Svenske tjenestemenn ble ikke underholdt da den kjøpte ecstasy, som kunstneren la ut. (Til støtte for kunstnerisk uttrykk konfiskerte de imidlertid ikke stoffene før utstillingen ble avsluttet.)

I begge disse tilfellene gjorde myndighetene det de kunne i henhold til loven, men til slutt tilgav de menneskelige eierne fordi de ikke eksplisitt eller direkte hadde begått forbrytelser. Men hvordan oversettes det når et menneske slipper løs en AI med intensjon om ondskap?

Den ironiske virkeligheten er at vi utforsker måter vi kan styre våre autonome maskiner på. Og utover vår tvilsomme evne til å innpode etikk i dem, blir vi ofte forferdet av deres generelle oppførsel alene. Når vi diskuterte metodene bak nevrale nettverk, avslørte Googles programvareingeniør Alexander Mordvintsev, "... selv om dette er veldig nyttige verktøy basert på kjente matematiske metoder, forstår vi faktisk overraskende lite av hvorfor visse modeller fungerer og andre ikke."

Kan vi følge med?

Alt i alt er prosessen for lovgivning vanskelig treg, mens teknologien derimot skynder seg. Som Vivek Wadhwa fra Singularity University forklarer, “lovene kan ikke følge med fordi lovene egentlig er kodifisert etikk. At vi utvikler enighet som et samfunn om hva som er bra og hva som er dårlig, og så blir det hva som er riktig og hva som er galt, og så blir det hva som er lovlig og hva som er ulovlig. Slik går progresjonen. På de fleste av disse teknologiene har vi ikke bestemt hva som er bra eller dårlig. "

Hvis loven tar igjen, skriver vi kanskje vår egen undergang. Alt dette snakker om roboter som tar over verden? Kanskje de bare vandrer massevis til vi fengsler så mye av løpet vårt at vi blir minoritet i autonome vesener. Sjakkekammerat.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found