YouTubes Crackdown on QAnon fungerer ikke

Høyreekstreme gruppen QAnon har fanget publikums oppmerksomhet de siste ukene for sin evne til å manøvrere sosiale medieplattformer for å spre feilinformasjon og skape viral oppmerksomhet for sine konspirasjonsteorier.

Sosiale medieplattformer som Twitter og TikTok har tatt grep mot gruppen etter at lange motbeviste konspirasjonsteorier som #PizzaGate fikk ny oppmerksomhet, forbød kontoer og deaktiverte de populære hashtags fra å vises i søk. Selv om begge plattformene har vist seg å være grobunn for gruppen, har QAnon blomstret på YouTube i årevis - til tross for selskapets investeringer i å moderere det.

Nå prøver videoplattformen å forhindre at QAnon-videoer vises i brukernes anbefalinger, men en Digital Trends-test fant at konspirasjonsteorivideoene fremdeles vises på fremtredende steder på YouTube-hjemmesiden.

QAnon-supporter med Q-flagg Scott Olson / Getty Images

QAnon-tilhengere tror på en rekke motbeviste konspirasjonsteorier som stammer fra 4chan- og 8chan-tavler i slutten av 2016. Gruppen mener at en figur som heter “Q”, som hevder å være en del av Trump-administrasjonen, legger ut forsendelser om president Donald Trumps krig mot en “deep state” -plott. Gruppen har hatt stor vekst på YouTube siden 2016, siden den engasjementsdrevne algoritmen fremmer QAnon-videoer.

“QAnon grep i utgangspunktet trekkraft på YouTube,” sa Will Partin, en forskningsanalytiker ved Data & Society Research Institute, som har studert gruppen siden 2017. “Det ble plukket opp av YouTubers som virkelig ga konspirasjonens ben, og som et resultat , spredte den virkelig, og gjorde arbeidet med å koble den til andre ting som allerede var i luften ”blant konservative.

"Du kan ikke hindre noen i å aktivt oppsøke det"

Takket være selve YouTube, viste plattformen seg å være det fremste stedet hvor langformede, pseudo-dokumentarer og talkshows som tyder på ledetråder eller "brødsmuler" som ble droppet av "Q", blomstret. De som er interessert i QAnon-teorier, kan lett finne andre brukere som anbefaler flere videoer i kommentarseksjonen eller gjennom YouTubes anbefalingsalgoritmer - en funksjon som har kommet under skudd fra kritikere som en enkel måte å "radikalisere" seere på.

Men nå, hvis du skriver inn "QAnon" i søkefeltet på YouTube, vil skjermen din "fremtredende autoritære kilder" som nyhetsorganisasjoner og eksperter - en del av YouTubes plan om å heve faktainnhold for å bekjempe feilinformasjon. YouTube har også begynt å ha tekstbokser og informasjonspaneler som lenker til tredjepartskilder. Digital Trends fant ut at YouTube gir en lenke til Wikipedia-artikkelen om QAnon under relaterte videoer.

youtube

YouTube sa siden det implementerte nye retningslinjer for innholdsmodering i januar, at det har sett en reduksjon på 70% i antall visninger som QAnon-innhold får fra videoanbefalinger. Siden YouTube er et videoplattformsside, ikke et nettsted for sosiale nettverk, er moderering på video-til-video-basis, ikke etter konto. Og ifølge en YouTube-talsmann, har plattformens systemer blitt justert for å senke rangeringen på QAnon-innhold i sidefeltet med anbefalinger, selv om du ser på lignende videoer.

Imidlertid fant Digital Trends at etter å ha sett et halvt dusin QAnon-relaterte videoer på plattformen, inneholdt YouTube minst tre videoer med QAnon-relaterte konspirasjoner under fanen "Alle anbefalinger" på hjemmesiden. En video som ble anbefalt nevnte konspirasjonen rundt den kjemiske forbindelsen Adrenochrome - bredt spredt i QAnon-grupper som den ble oppnådd av elite Hollywood-figurer gjennom drap på barn - og hadde over 1 million visninger.

En representant fra YouTube nektet å kommentere denne historien.

I følge Partin er måten QAnon-innhold vises på YouTube ikke basert på videoene som er anbefalt for brukerne, men innholdet i de QAnon-relaterte videoene selv. QAnon-påvirkere vil ofte rope ut en annen i en video, eller henvise seere til andre sider, uavhengig av hvordan YouTube modererer QAnon-koder eller videoer. Partin sa imidlertid at det er noen QAnon-koder som er så uklare at det er umulig for YouTube å fylle søkeresultatene med faktisk innhold fra anerkjente kilder.

"På det tidspunktet kan du ikke skjule det algoritmisk, du kan ikke hindre noen i å søke det aktivt," sa han.

Partin sa at YouTube en gang var "nøkkelpunktet" for en bruker å bli introdusert for QAnon-relatert innhold, men nå skjer det meste av rekrutteringen på Facebook - der private QAnon-grupper kan svulme inn i hundretusener og er spesielt vanskelige å moderere.

Facebook planlegger angivelig å gjøre et lignende grep for å moderere gruppen, ifølge The New York Times, og følger i fotsporene til Twitter og TikTok.

"Når plattformer beveger seg for å forby QAnon, gjør de ofte alt samtidig for å ha styrke i antall," sa Partin. "Men det er veldig vanskelig å lage en politikk om QAnon, fordi mye av det bare er vanlige konservative valg."

Partin sa at den ene tingen han håper folk forstår om farene ved QAnon-relatert innhold på sosiale medier, er ikke hvor bredt eller hvor dypt konspirasjoner det antas, men risikoen ved å trykke på "del" -knappen selv.

"Det er umulig å kjenne noens intensjoner, men intensjonen betyr ikke så mye," sa han. "Jeg bryr meg ikke egentlig om de gjør det eller ikke tror på det, de oppfører seg som de gjør, og de sprer dette innholdet og denne troverdigheten, uavhengig av intensjonen bak det."

Siste innlegg

$config[zx-auto] not found$config[zx-overlay] not found