Studie varuje, že AI by mohla zesílit polarizaci na sociálních médiích

Studie varuje, že AI by mohla zesílit polarizaci na sociálních médiích

Doba čtení: 3 minut

Umělá inteligence by mohla na sociálních médiích výrazně zvyšovat polarizaci, varují výzkumníci a studenti z Concordie, čímž se zvyšují obavy ohledně svobody projevu a dezinformací.

Máte pospích? Zde jsou stručné fakty:

  • Algoritmy AI mohou šířit rozdělení pouze pomocí počtu sledujících a nedávných příspěvků.
  • Boti využívající zpětnovazební učení se rychle adaptují na zneužití zranitelností sociálních médií.
  • Odborníci varují, že platformy riskují buď cenzuru, nebo nekontrolovanou manipulaci.

Ačkoli polarizace na sociálních médiích není ničím novým, výzkumníci a studentští aktivisté na Univerzitě Concordia varují, že umělá inteligence by mohla problém výrazně zhoršit.

„Místo toho, abychom viděli záběry z toho, co se děje, nebo obsah od novinářů, kteří o tom informují, vidíme místo toho předramatizované AI umění věcí, o které bychom se měli politicky zajímat […] Opravdu to lidi od toho odcizuje a odstraňuje odpovědnost“ řekla Danna Ballantyne, koordinátorka pro vnější záležitosti a mobilizaci Studentské unie Concordia, jak uvedl The Link.

Její obavy odrážejí nový výzkum z Concordie, kde profesor Rastko R. Selmic a doktorand Mohamed N. Zareer ukázali, jak mohou roboti využívající metodu posilovaného učení podněcovat online rozdělení. „Naším cílem bylo pochopit, jaký limit může mít umělá inteligence na polarizaci a sociální sítě a simulovat to […] aby bylo možné měřit, jak může tato polarizace a nesouhlas vzniknout.“ řekl Zareer, jak uvedl The Link.

Výsledky naznačují, že algoritmy nepotřebují soukromá data k vyvolání rozdělení, kde základní signály jako počet sledujících a nedávné příspěvky jsou dostačující. „Je to znepokojující, protože [přestože] to není jednoduchý robot, je to stále algoritmus, který můžete vytvořit na svém počítači […] A když máte dostatek výpočetního výkonu, můžete ovlivnit stále více sítí,“ vysvětlil Zareer The Link.

Toto odráží širší těleso výzkumu ukazující, jak lze využít posilující učení k rozbíjení komunit. Studie od Concordia použila Double-Deep Q-learning a ukázala, že nepřátelské AI agenty mohou „flexibilně reagovat na změny v síti, což jim umožňuje efektivně využívat strukturální slabiny a zesilovat rozdíly mezi uživateli,“ jak poznamenal výzkum.

Ano, Double-Deep Q-learning je technika umělé inteligence, kde bot učí optimální akce metodou pokus-omyl. K řešení složitých problémů využívá hluboké neuronové sítě a dva odhady hodnot, aby se vyhnul přeceňování odměn. Na sociálních médiích může strategicky šířit obsah s cílem zvýšit polarizaci s minimem dat.

Zareer varoval, že politici čelí obtížné rovnováze. „Existuje tenká hranice mezi sledováním a cenzurou a pokusem ovládat síť,“ řekl pro The Link. Příliš malý dohled umožňuje botům manipulovat s konverzacemi, zatímco příliš mnoho může ohrozit svobodu projevu.

Mezitím studenti jako Ballantyne obávají, že AI maže prožité zkušenosti. „AI to naprosto zahazuje,“ řekla pro The Link.

Líbil se Vám tento článek?
Ohodnoťte jej!
Nesnášel jsem ho Opravdu se mi nelíbí Byl v pořádku Docela dobrý! Absolutně úžasný!

Jsme rádi, že se vám náš článek líbil!

Věnujte nám prosím chvilku a zanechte nám hodnocení na portálu Trustpilot. Vaší zpětné vazby si velmi vážíme. Děkujeme za vaši podporu!

Ohodnotit na portálu Trustpilot
0 Hlasovalo 0 uživatelů
Titulek
Komentář
Děkujeme za vaši zpětnou vazbu