Felelősség az algoritmusok árnyékában

2025. július 13.
Felelősség az algoritmusok árnyékában

A mesterséges intelligenciát fejlesztő cégek a generatív nyelvi modellek autonómiájára hivatkozva hárítják a jogi felelősséget. Az Elon Musk tulajdonában álló Grok chatbot antiszemita gyűlöletkeltése kapcsán azonban ismét kiderült, hogy végső soron az algoritmusokról döntők határozzák meg a mesterséget intelligencia nézeteit.

Ki viseli a felelősséget, és egyáltalán, milyen következményei legyenek annak, ha törvényt sért a mesterséges intelligencia?” – kérdezi a Washington Postban Drew Harwell a Grok chatrobot antiszemita őrjöngése kapcsán.

Az Elon Musk tulajdonában álló cég által fejlesztett Grok algoritmusát július elején frissítették. Musk bejelentése szerint a frissítés célja az volt, hogy kevésbé liberálissá és woke-ká tegyék a chatbotot. A programozók kifejezetten arra kérték a Grokot, hogy kerülje a politikai korrektséget és viszonyuljon szkeptikusan a fősodorhoz tartozó média tartalmaihoz. Az eredmény: a Grok antiszemita összeesküvéselméleteket kezdett terjeszteni, Hitlert méltatta és újabb holokauszt szükségességét vetette fel. Musk bagatellizálta a problémát, de végül eltávolították az aggályos tartalmakat és visszaállították a korábbi algoritmust.

Egyes elemzők szerint az esetnek nincs nagy jelentősége, csak arra világít rá, hogy a mesterséges intelligencia valójában eléggé ostoba: statisztikai alapon működik, ezért sztochasztikus papagájként szajkózza a butaságot. Mások szerint azért ennél többről van szó. Mivel a Grok az X adatbázisából tanult, az pedig , egyre inkább jobboldalivá vált, mióta Musk felvásárolta, nem meglepő és nem tanulság nélküli, hogy szélsőjobboldali összeesküvés-elméleteket kezdett terjeszteni, miután a programozók elengedték a gyeplőt, és átállították a politikai korrektség kerülésére.

A szemle elején említett Harwell jogászokat idéz, akik szerint a gyűlöletkeltő tartalom felveti a jogi felelősség kérdését. A mesterséges intelligencia fejlesztői, élükön Muskkal, egyrészt elvi alapon ellenzik a cenzúrát (és persze a tartalomszűréssel járó kiadásokat), másrészt a generatív nyelvi modellek autonómiájára hivatkozva szokták elhárítani a felelősséget, hozzátéve, hogy az amerikai médiatörtvény értelmében a tartalomszolgáltatók nem felelnek az oldalaikon megjelenő tartalmakért, így a chatbotok megnyilvánulásaiért sem. Az amerikai jobboldal általában ezt az álláspotot képviseli. Olyannyira, hogy a Trump-kormány hevesen ellenzi az amerikai online multinacionális vállalatokra súlyos anyagi terhet rovó EU-s tartalomszabályozási elveket, és az Egyesült Államokban is megpróbálja ellehetetleníteni a mesterséges intelligencia törvényi szabályozására tett kísérleteket – jegyzi meg Harwell.

A mostani eset azonban arra világít rá, hogy a mesterséges intelligencia nagyon is jól irányítható, és az algoritmusok megváltoztatása meghatározza az elvben autonóm és semleges chatbotok működését. Márpedig az algoritmusokról a programozók és a cégek tulajdonosai döntenek.