Studie varuje, že AI by mohla zesílit polarizaci na sociálních médiích
Umělá inteligence by mohla na sociálních médiích výrazně zvyšovat polarizaci, varují výzkumníci a studenti z Concordie, čímž se zvyšují obavy ohledně svobody projevu a dezinformací.
Máte pospích? Zde jsou stručné fakty:
- Algoritmy AI mohou šířit rozdělení pouze pomocí počtu sledujících a nedávných příspěvků.
- Boti využívající zpětnovazební učení se rychle adaptují na zneužití zranitelností sociálních médií.
- Odborníci varují, že platformy riskují buď cenzuru, nebo nekontrolovanou manipulaci.
Ačkoli polarizace na sociálních médiích není ničím novým, výzkumníci a studentští aktivisté na Univerzitě Concordia varují, že umělá inteligence by mohla problém výrazně zhoršit.
„Místo toho, abychom viděli záběry z toho, co se děje, nebo obsah od novinářů, kteří o tom informují, vidíme místo toho předramatizované AI umění věcí, o které bychom se měli politicky zajímat […] Opravdu to lidi od toho odcizuje a odstraňuje odpovědnost“ řekla Danna Ballantyne, koordinátorka pro vnější záležitosti a mobilizaci Studentské unie Concordia, jak uvedl The Link.
Její obavy odrážejí nový výzkum z Concordie, kde profesor Rastko R. Selmic a doktorand Mohamed N. Zareer ukázali, jak mohou roboti využívající metodu posilovaného učení podněcovat online rozdělení. „Naším cílem bylo pochopit, jaký limit může mít umělá inteligence na polarizaci a sociální sítě a simulovat to […] aby bylo možné měřit, jak může tato polarizace a nesouhlas vzniknout.“ řekl Zareer, jak uvedl The Link.
Výsledky naznačují, že algoritmy nepotřebují soukromá data k vyvolání rozdělení, kde základní signály jako počet sledujících a nedávné příspěvky jsou dostačující. „Je to znepokojující, protože [přestože] to není jednoduchý robot, je to stále algoritmus, který můžete vytvořit na svém počítači […] A když máte dostatek výpočetního výkonu, můžete ovlivnit stále více sítí,“ vysvětlil Zareer The Link.
Toto odráží širší těleso výzkumu ukazující, jak lze využít posilující učení k rozbíjení komunit. Studie od Concordia použila Double-Deep Q-learning a ukázala, že nepřátelské AI agenty mohou „flexibilně reagovat na změny v síti, což jim umožňuje efektivně využívat strukturální slabiny a zesilovat rozdíly mezi uživateli,“ jak poznamenal výzkum.
Ano, Double-Deep Q-learning je technika umělé inteligence, kde bot učí optimální akce metodou pokus-omyl. K řešení složitých problémů využívá hluboké neuronové sítě a dva odhady hodnot, aby se vyhnul přeceňování odměn. Na sociálních médiích může strategicky šířit obsah s cílem zvýšit polarizaci s minimem dat.
Zareer varoval, že politici čelí obtížné rovnováze. „Existuje tenká hranice mezi sledováním a cenzurou a pokusem ovládat síť,“ řekl pro The Link. Příliš malý dohled umožňuje botům manipulovat s konverzacemi, zatímco příliš mnoho může ohrozit svobodu projevu.
Mezitím studenti jako Ballantyne obávají, že AI maže prožité zkušenosti. „AI to naprosto zahazuje,“ řekla pro The Link.