Falske nyheter og filterbobler - det er vår jobb å stoppe dem

falske nyheter og filterbobler fakenews filterbubbles 05 Eli Pariser, medstifter av Avaaz Kris Krüg / Flickr Det har gått et halvt tiår siden medstifter av Avaaz, Eli Pariser, opprettet uttrykket "filterboble", men hans profetiske TED Talk - og hans bekymringer og advarsler - er enda mer anvendelig nå enn de var den gang. I en tid med falske nyheter, kuratert innhold, personlige opplevelser og dype ideologiske splittelser, er det på tide at vi alle tar ansvar for å sprengte våre egne filterbobler.

Når jeg søker etter noe på Google, er resultatene jeg ser ganske forskjellige fra dine, basert på våre individuelle søkehistorikker og hva andre data Google har samlet inn gjennom årene. Vi ser dette hele tiden på våre Facebook-tidslinjer, ettersom det sosiale nettverket bruker dataene sine for å tilby oss det de tror vi vil se og høre. Dette er boblen din.

Mange selskaper har strebet mot bobler i årevis. Facebook-grunnlegger og administrerende direktør Mark Zuckerberg antas å ha fortalt kolleger en gang at "et ekorn som dør i hagen din, kan være mer relevant for dine interesser akkurat nå enn folk som dør i Afrika." Hele Facebook er rettet mot å sørge for at du vet alt det er å vite om ekornet.

Selv om det er omstridt, kan det diskuteres at Zuckerberg i det minste har delvis rett. Folk kunne ikke fungere i deres daglige liv hvis de brukte hvert sekund på å bekymre seg for verdens problemer. Men å kurere nyhetene våre for å gi oss det vi vil se, i stedet for det vi kanskje trenger å se, har reelle, langsiktige problemer.

Farene ved filterbobler

Filterbobler ser kanskje ikke ut til å true et potensielt prospekt, men de kan føre til to forskjellige, men sammenhengende problemer. Den første er at når du bare ser ting du er enig i, kan det føre til en snødekkende bekreftelsesforstyrrelse som bygger seg opp jevnt over tid.

De tar ikke åpenlyst holdning, de maler usynlig det digitale landskapet med ting som sannsynligvis vil samsvare med synspunktet ditt.

Et større problem er at med slike forskjeller informasjonskilder mellom mennesker, kan det føre til generering av en reell kobling, da de ikke blir i stand til å forstå hvordan noen kan tenke annerledes enn seg selv.

En titt på noen av de venstre- eller høyre-lutende vanlige TV-stasjonene under oppbyggingen til det nylige valget ville ha gitt deg ingen tvil om hvilken kandidat de støttet. Det samme kan sies om aviser og andre medier. Faktisk gjelder dette mange publiserte påtegninger.

Men vi er alle klar over den skjevheten. Det er enkelt å slå av eller bytte til en annen stasjon for å se den andre siden av mynten.

På nettet er skjevheten mer skjult. Google-søk, feeder på sosiale nettverk og til og med noen nyhetspublikasjoner kuraterer alt det de viser deg. Verre, det er alt bak kulissene. De tar ikke åpenlyst holdning, de maler usynlig det digitale landskapet med ting som sannsynligvis vil samsvare med synspunktet ditt.

Hvis en persons Facebook-feed er full av pro-Hillary og anti-Trump historier og innlegg, kan du lure på hvordan på jorden noen kunne stemme på mannen. Hvis feeden din er det stikk motsatte, og kun fremhever det negative med Hillary og forkjemper for Trump og hans fordeler, kan du ha den motsatte oppfatningen.

I likhet med Wittgensteins løve, hvis våre referanserammer fra nyheter og sosiale feeds er så forskjellige fra hverandre, kan vi noen gang håpe å forstå hverandres posisjon?

Falske nyheter, et historisk problem, vedvarer i dag

Dette blir enda mer av et problem når du faktoriserer falske nyheter. Dette siste valget var et av de mest omstridte i historien, med kandidater med lav godkjenning på begge sider og salige overskrifter kastet ut av alle tenkelige kilder. Med så mye gjørme som ble slengt, var det vanskelig å holde rede på hva som foregikk, og det var dobbelt så online, der falske nyheter var rikelig.

Dette er noe Facebook-sjef Mark Zuckerberg har prøvd å spille ned, og hevder at det bare utgjorde 1 prosent av de samlede Facebook-nyhetene. Tatt i betraktning at Facebook har nær to milliarder brukere, skjønt, det er potensielt mange falske historier papegøyet som sannheten. Det er bevist nok av et problem som studier tyder på at mange mennesker har problemer med å fortelle falske nyheter fra virkelige nyheter, og i ukene siden valget har både Google og Facebook lovet å håndtere problemet.

Tenk også på at 61 prosent av tusenårsriket bruker Facebook som den viktigste kilden til nyheter, og du kan se hvordan dette problemet kan bli forverret hvis det ikke stoppes snart. Men dette er ikke første gang ungdommen blir lurt av den rette typen løgner.

falske nyheter og filterbobler platofalske nyheter og filterbobler fakenews filterbubbles 08falske nyheter og filterbobler fakenews filterbubbles 07falske nyheter og filterbobler fakenews filterbubbles 09

Falske nyheter, falsk kunnskap og falsk visdom er noe mennesker har hatt problemer med til evig tid. Kunnskap var en gang en praksis for å undervise i retorikk og tale i det antikke Hellas, men antas å ha blitt valgt av sjarlataner som brukte retorikkens og filosofiens kraft til ikke bare å tjene penger på sine betalende studenter, men til å popularisere latterlige argumenter.

Platon beskrev en slik person i en av sine senere dialoger, og forsøkte å trekke en sammenligning mellom dem og deres underforståtte visdom, mot en ekte filosof eller statsmann. I den konkluderer han med at sofistikk er den nærmest umulige å skille imitasjon av en sann kunst, akkurat som falske nyheter i dag etterligner kunstformen for journalistisk etterforskning og rapportering.

Den andre presidenten i USA, John Adams, visste også farene. Som svar på et brev fra en venn i 1819 hvor han spurte om definisjonen av visse ord som "frihet og" republikk ", roste han søket etter en slik klarhet, og understreket viktigheten av å være nøye klar over betydningen bak ord og uttrykk.

"Misbruk av ord har vært det store instrumentet for sofistik og kikærskap, for parti, fraksjon og splittelse av samfunnet."

"Misbruk av ord har vært det store instrumentet for sofistikk og kikarskap, for parti, fraksjon og splittelse av samfunnet," sa han, før han siterte sin egen tretthet i arbeidet med en slik avklaring.

På samme måte som fortidens sofister og svindlere kunne bruke teknikkene til sine jevnaldrende til å tjene penger, heve sin egen statur og på noen måter undergrave det fungerende samfunnet, bruker falske nyhetssider og forfattere stilene og teknikkene til onlinejournalistikk. å lage innhold som virker plausibelt. Når du kombinerer det med en overveldende overskrift og muligheten til enkelt å dele innholdet på nettet før du sjekker ektheten, har du en oppskrift på spredning av falske historier som kan ha en reell kulturell innvirkning.

Mens Zuckerberg kanskje ikke tror falske nyheter og memer gjorde en forskjell for valget, gjorde Facebook-ansatt og Oculus VR-grunnlegger Palmer Luckey absolutt det. Han ble tidligere i år utsatt for å investere mer enn $ 100.000 i et selskap som bidro til å markedsføre Donald Trump online gjennom spredning av memer og betennelsesangrep. Han ville ikke ha satset hvis han syntes det var verdiløst.

Historier driver følelser

Buzzfeeds analyse av de populære delte historiene på Facebook viser at mens falske nyheter underpresterte sammenlignet med sine virkelige kolleger i begynnelsen av 2016, da valgdagen rullet rundt i begynnelsen av november, hadde den 1,5 millioner forlovelser på sanne historier.

Det samme analysestykket fremhevet noen av de største falske valghistoriene, og alle inneholdt klassiske klikk-agn-taktikker. De brukte skandaløse formuleringer, store bokstaver og sensasjonelle påstander om å trekke inn klikker, delere og kommentatorer.

Det er fordi slike ord hjelper til med å hente en følelsesmessig reaksjon fra oss. Markedsføringsfirmaet Co-Schedule oppdaget dette tilbake i 2014, men det er sannsynligvis noe mange vil være enige med selv uten de harde tallene. Vi har alle blitt fristet av clickbait-overskrifter før, og de er vanligvis de som appellerer til frykt, sinne, opphisselse eller en annen del av oss som ikke er relatert til kritisk tenkning og politisk analyse. Alles slam gjørme fra sine egne filterbobler, sikrer seg i kunnskapen om at de har rett, og at alle som tenker annerledes er en idiot.

Sprengning det du ikke kan se

Og der ligger vanskeligheten. Den eneste måten å virkelig forstå hvorfor noen kan ha et annet syn er gjennom empati. Men hvordan kan du empati når du ikke har kontroll over hvordan verden ser ut for deg, og filteret ditt fungerer som en buffer for historier som kan hjelpe deg med å få kontakt med den andre siden?

Når Pariser når ut til oss fra fortiden, har han noen tanker for de av oss som nå lever gjennom hans advarsel om fremtiden. Selv om Facebook kanskje fjerner hele menneskeheten fra nyhetskuratet, er det fortsatt menneskelige sinn og fingertupper bak algoritmene som gir oss innhold. Han oppfordret programmørene til å innpode en følelse av journalistisk integritet i AI bak kulissene.

facebookComp_head

“Vi trenger portvaktene [av informasjonen] for å kode [journalistisk] ansvar i koden de skriver. [...] Vi må sørge for at disse algoritmene har kodet inn en følelse av det offentlige liv, en følelse av samfunnsansvar. De må være gjennomsiktige nok til at vi kan se hva reglene er, og [...] vi trenger [å] få litt kontroll. "

Den slags forslag virker spesielt relevant, siden det var først i slutten av august at Facebook permitterte hele redaksjonen, og i stedet stolte på automatiserte algoritmer for å kuratere innhold. De gjorde imidlertid ikke en god jobb, siden det ble funnet ut uker senere at de hadde sluppet en mengde faux innhold gjennom screeningprosessen.

Selv om det kan virke som en høy ordre for megakorporasjoner å presse på for en slik åpen plattform, har det blitt reist så mye stink om falske nyheter i kjølvannet av valget at det virker som om Facebook og Google i det minste vil gjøre noe for målrette det problematiske aspektet av sosiale nettverk. De kan imidlertid gjøre mer, og det kan begynne med å bidra til å øke bevisstheten om forskjellene i innholdet vi får vist.

Det er absolutt noen ganger vi ikke trenger innhold som blir gitt til oss. Hvis du undersøker et emne å skrive om, vil du ha rådataene, ikke Googles forskjønne versjon av den. Når det gjelder nyheter, vil det ikke gå galt å tilby litt manuell kontroll over kurateringen. enten.

Hva med en knapp som lar oss se det stikk motsatte av det våre datadrevne, personaliserte feeder viser? Jeg vil helt sikkert klikke på det igjen og igjen.

Men det pålegges andre mennesker å gjøre endringen for oss, og det er viktig å huske at årsaken til at disse tjenestene gir oss innhold som er relativt smalt, er på grunn av våre egne søk og klikk. Hvis vi alle gjorde et poeng om å lese utenfor komfortsonen vår, gå inn med et klart sinn og kreve innhold utenfor vår egen boble, ville vi få det og algoritmene ville gradvis svare.

Det har den doble fordelen av å gi oss øyeblikkelig tilgang til ny informasjon, men lærer også våre digitale kuratorer å være litt mer åpensinnede selv.

Og kanskje også vi. I det minste nok til å lytte uten å rope ned og kreve et trygt rom for våre egne tanker. Enten du mener at det motsatte synspunktet er villedet, galt eller ekkelt, er den beste måten å bekjempe det med rimelig debatt. Ingen forferdelig ide kan overleve dagens harde lys og intelligent motstand.

For sin side av ting fortsetter Pariser å fremheve problemene filterboblene utgjør, men har tatt på seg å samle mennesker for å bekjempe falske nyheter og annet tull på nettet. Hvis du vil hjelpe ham, kan du bidra selv.

Det virker imidlertid stadig tydeligere at så mye som det er mange store institusjoner som trenger å gjøre endringer for å bidra til å streve etter sannhet på nettet, er det beste trinnet vi alle kan ta å sprengte våre egne bobler for å se hva som er utenfor. Det kan bare gjøre ting litt klarere i en tid hvor det blir stadig vanskeligere å holde oversikt over hva som er hva.

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found