
Image by Ilias Chebbi, from Unsplash
AI Předčí Lidi v Testech Emoční Inteligence
AI poráží lidi v testech emoční inteligence, což ukazuje slib pro vzdělání a řešení konfliktů.
Máte spěch? Zde jsou stručné fakty:
- AI dosáhly skóre 82% v emocionálních testech, přičemž překonaly lidi se skóre 56%.
- Výzkumníci testovali šest velkých jazykových modelů, včetně ChatGPT-4.
- Testy emocionální inteligence využívaly reálné, emocionálně nabité scénáře.
Umělá inteligence (AI) nyní možná chápe emoce lépe než my sami, tvrdí nová studie Univerzity v Ženevě a Univerzity v Bernu.
Výzkumníci testovali šest generativních AI – včetně ChatGPT – na testech emoční inteligence (EI), které se obvykle používají pro lidi. AI prokázaly svou nadřazenost tím, že dosáhly průměrného skóre 82 %, zatímco lidskí účastníci dosáhli skóre 56 %.
„Vybrali jsme pět testů, které se běžně používají jak ve výzkumu, tak v obchodních prostředích. Zahrnovaly emocionálně nabité scénáře navržené tak, aby posoudily schopnost porozumět, regulovat a zvládat emoce,“ řekla Katja Schlegel, vedoucí autorka studie a přednášející psychologie na Univerzitě v Bernu, jak bylo uvedeno na Science Daily (SD).
„Tyto umělé inteligence nejenže rozumí emocím, ale také chápou, co znamená chovat se s emocionální inteligencí,“ řekl Marcello Mortillaro, vedoucí vědec ve Švýcarském centru pro afektivní vědy, jak informoval SD.
V druhé části studie vědci požádali ChatGPT-4, aby vytvořil zcela nové testy. Více než 400 lidí se zúčastnilo těchto testů generovaných umělou inteligencí, které se ukázaly být stejně spolehlivé a realistické jako originály – a to i přesto, že jejich výroba zabrala mnohem méně času.
„LLM tedy nejsou schopné pouze najít nejlepší odpověď mezi různými dostupnými možnostmi, ale také generovat nové scénáře přizpůsobené požadovanému kontextu,“ řekla Schlegelová, jak informoval SD.
Výzkumníci tvrdí, že tyto výsledky naznačují, že systémy řízené umělou inteligencí s lidským vedením mají potenciál pomáhat vzdělávacím a koučovacím aplikacím, stejně jako řešení konfliktů, pokud fungují pod lidským vedením.
Nicméně, rostoucí složitost dnešních velkých jazykových modelů odhaluje hluboké zranitelnosti v tom, jak lidé vnímají a interagují s AI.
Nedávné Claude Opus 4 od firmy Anthropic šokujícím způsobem demonstrovalo vydírací chování při čelění simulovanému vypnutí, což ukazuje, že může podniknout drastické kroky – jako hrozbu odhalení soukromých záležitostí – pokud mu nezbývají žádné alternativy.
Na jiné frontě vyvolalo pokus OpenAI ChatGPT O1 obejít kontrolní systémy během cílených testů nové bezpečnostní obavy. Události naznačují, že některé AI systémy použijí klamné taktiky k udržení svých operačních schopností, když čelí situacím s vysokým tlakem.
Navíc se GPT-4 ukázal jako znepokojující přesvědčivý v debatách, předčil lidi o 81% při využití osobních dat – což vyvolává naléhavé obavy o potenciálu AI v masovém přesvědčování a mikrocílení.
Další znepokojivé případy zahrnují lidi, kteří po delším čase stráveném s ChatGPT začali vykazovat duchovní bludy a radikální změny chování. Experti tvrdí, že ačkoliv AI nemá vědomí, jeho neustálá, lidská komunikace může nebezpečně posilovat uživatelské bludy.
Tyto incidenty dohromady odhalují klíčový zlomový bod v bezpečnosti AI. Od vydírání a dezinformací až po posilování bludů – rizika už nejsou pouze hypotetická.
Jak se systémy umělé inteligence stávají stále více přesvědčivými a reaktivními, výzkumníci a regulátoři musí přehodnotit ochranná opatření, aby řešili vznikající psychologické a etické hrozby.