Mesterséges intelligencia az elhülyülésspirálban

2024. június 2.

Egyre-másra robbannak ki az MI-alkalmazások hibáival kapcsolatos botrányok. Egyes elemzők már attól tartanak, hogy a mesterséges intelligencia nemhogy felszámolná, inkább terjeszti, felerősíti és szaporítja az ostobaságokat.

„2002 novemberében, a ChatGPT megjelenésekor kevesen figyelmeztettek a mesterséges intelligencia hátrányaira. Mára a ChatGPT megfertőzte az internetet és megmérgezte a mesterséges intelligencia programokat, köztük saját magát is. Az MI-nek kevés kézzelfogható haszna van, a hátrányai azonban egyre nyilvánvalóbbak” – kommentálja a Spiked magazinban Andrew Orlowski a Google mesterségesintelligencia-alapú keresője körül kibontakozó botrányt.

Május elején ismeretlenek több ezer oldalnyi dokumentációt szivárogtattak ki a Google új keresőjével kapcsolatban. Ezekből egyebek között kiderült, hogy a cég új, mesterséges intelligenciát használó keresője rendszeresen hallucinál, vagyis nyilvánvaló ostobaságokat válaszol. Azt javasolta például, hogy a pizzára ragasztóval erősítsük rá a sajtot, továbbá hogy tegyünk gázolajat a spagettibe. Azt is állította, hogy az amerikai elnökök közül csak tizenhét volt fehér, és egy muszlim is akadt közöttük.

Nem ez az első eset, hogy fény derül a mesterséges intelligencia ostobaságára. Orlowski felidézi, hogy tavaly februárban a Bard chatbot hallucinációi 100 milliárdos veszteséget okoztak a Google-nak. Idén pedig a Gemini képgenerátor váltott ki nagy botrányt, miután a politikailag korrekt programozóknak hála az alkalmazás feketebőrű náci katonákat, őslakos indián amerikai elnököket és délkelet-ázsiai női pápát rajzolt.

A Google bagatellizálta az eseteket, és arra hivatkozott, hogy a hibák forrása az internet használói által generált tartalom. Orlowski szerint ennél jóval súlyosabb a probléma. Az ostobaságok a mesterséges intelligencia természetéből fakadnak: abból ugyanis, hogy az MI valójában nem gondolkozik, hanem „sztochasztikus papagájként” viselkedik, vagyis statisztikai alapon próbál mondatokat alkotni. Ha tévedéseket tartalmazó szöveg alapján tanítják be, akkor ő is tévedés válaszokat gyárt. És a humort sem képes megérteni, ezért az ironikus kijelentéseket is komolyan veszi: a Google keresőjének egyes butaságairól kiderült, hogy egy ismert vicclapból származnak.

Ennél is nagyobb probléma, hogy a mesterséges intelligencia saját magát butítja el – írja Orlowski. Az ostobaságok, amelyeket generál, terjedni kezdenek az interneten, így az újabb MI-alkalmazások ezeket is felhasználják. Az is előfordul, hogy a szebeszökő ostobaságokat generáló chatbotok által létrehozott „szintetikus szöveg” segítségével tanítják az újabb alkalmazásokat. Ez pedig öngerjesztő folyamatot indít: az ostobaságok MI-ről MI-re szállnak. Kutatók ezzel magyarázzák, hogy az egyre nagyobb hozzáférhető adattömeg ellenére sem javul a generatív nyelvi modelleket használó MI-alkalmazások minősége.

A mesterséges intelligencia korlátoltságának súlyos gazdasági következményei lehetnek, ugyanis kétséges, hogy jelentős mennyiségű munkát spórolhatunk meg az alkalmazásával – jegyzi meg Orlowski. Az MI betanítása és javítása rengeteg, bár láthatatlan emberi munkát igényel. Ám mindhiába, ha még így is olyan sokat hibázik, hogy egyes területeken az MI válaszainak átnézése és ellenőrzése több energiába kerül, mintha mesterséges intelligencia nélkül dolgoznánk. Az ilyen hiányosságokról egyelőre azonban kevés szó esik, mivel minden érdekelt igyekszik elleplezni a technológia hibáit, hiszen a zsebére menne, ha leállna az MI-lufi fújásával.