Soudce pokutuje právníky za použití falešných právních výzkumů generovaných umělou inteligencí

Image by Freepik

Soudce pokutuje právníky za použití falešných právních výzkumů generovaných umělou inteligencí

Doba čtení: 2 minut

Americký soudce ostře kritizoval dvě právnické firmy za to, že do soudního podání zařadily falešné právní informace generované umělou inteligencí, což označil za značné selhání právní odpovědnosti.

Máte naspěch? Zde jsou stručné fakta:

  • Soudce udělil dvěma právnickým firmám pokutu 31 000 dolarů za falešné právní citace generované umělou inteligencí.
  • Nepravdivé informace byly nalezeny v soudním podání ve věci State Farm.
  • Alespoň dva citované právní případy byly zcela vyfabrikovány umělou inteligencí.

Soudce Michael Wilner, působící v Kalifornii, uložil firmám pokutu 31 000 dolarů, poté co zjistil, že dokument byl naplněn „falešnými, nepřesnými a zavádějícími právními citacemi a citáty,“ jak bylo poprvé nahlášeno WIRED.

„Žádný rozumně schopný právník by neměl outsourcovat výzkum a psaní na AI,“ napsal Wilner ve svém rozhodnutí a varoval, že byl blízko k tomu, aby zařadil falešné případy do soudního příkazu.

„Přečetla jsem jejich podání, byla přesvědčena (nebo alespoň zaujata) autoritami, které citovali, a rozhodla se více se dozvědět o těchto rozhodnutích – jen abych zjistila, že neexistují,“ řekla, jak bylo hlášeno WIRED. „To je děsivé,“ dodala.

Situace vznikla během občanského soudního sporu proti společnosti State Farm. Jeden právník použil nástroje umělé inteligence k návrhu právního nástinu. Tento dokument, obsahující falešný výzkum, byl předán větší právnické firmě K&L Gates, která ho přidala do oficiálního podání.

„Žádný právník ani pracovník v žádné z těchto firem zjevně nekontroloval ani jinak neprohlédl tento výzkum před podáním návrhu,“ poznamenal Wilner, jak uvedl WIRED.

Po zjištění, že alespoň dva z uvedených případů byly zcela vymyšlené, soudce Wilner požádal K&L Gates o vysvětlení. Když předložili novou verzi, ukázalo se, že obsahuje ještě více falešných citací. Soudce požadoval vysvětlení, které odhalilo přísahy přiznávající použití nástrojů umělé inteligence, jak uvedl WIRED..

Wilner dospěl k závěru: „Původní, nezveřejněné použití produktů umělé inteligence k vygenerování prvního návrhu zprávy bylo naprosto špatné […] A zasílání tohoto materiálu jiným právníkům bez odhalení jeho pochybného původu v AI reálně ohrožovalo tyto profesionály,“ jak uvedl WIRED.

Tohle není poprvé, kdy AI způsobila problémy v soudních síních. Skutečně, dva právníci z Wyomingu nedávno přiznali použití falešných případů generovaných AI v soudním podání žaloby proti Walmartu. Federální soudce je za to hrozil sankcemi.

V této situaci se „halucinace“ AI – vykonstruované informace generované nástroji AI – stávají stále větším problémem v právním systému.

Líbil se Vám tento článek?
Ohodnoťte jej!
Nesnášel jsem ho Opravdu se mi nelíbí Byl v pořádku Docela dobrý! Absolutně úžasný!

Jsme rádi, že se vám náš článek líbil!

Věnujte nám prosím chvilku a zanechte nám hodnocení na portálu Trustpilot. Vaší zpětné vazby si velmi vážíme. Děkujeme za vaši podporu!

Ohodnotit na portálu Trustpilot
0 Hlasovalo 0 uživatelů
Titulek
Komentář
Děkujeme za vaši zpětnou vazbu