Belefullad a Google a saját ideológiájába?

Múlt héten a Google piacra dobta az eddigi legfejlettebb MI-szoftverét, a Gemini 1.5-öt, amitől azt várták, hogy – egy félresikerült bemutató ellenére – végre megerősíti a vállalat pozícióját az AI-versenyben. A várt hatás azonban elmaradt, a mesterséges intelligenciába programozott masszív ideológiai és politikai torzítás olyan nagy felháborodást váltott ki a felhasználókból, hogy le kellett állítsák a program képgeneráló funkcióját. A fiaskó rávilágít, hogy a keresőóriás milyen mértékben esett áldozatául a saját ideológiai nézeteinek.

Amikor a Twitteren (újabb nevén Xen) elkezdtem látni, hogy a Google új mesterséges intelligenciája milyen abszurd módon pusholja a diverzitást a válaszaiban, úgy gondoltam, hogy nem fogok erről cikket írni, hiszen a „nagy techcégek túlzásba viszik a diverzitást” témával már magamat is untatom, ráadásul a ChatGPT ilyen elfogultságával már foglalkoztam egy korábbi cikkemben. Azonban a Google esetében a felhasználók felháborodása jóval nagyobb volt, mint sejtettem. Ahogy rájöttem, hogyan működik a Google programja, úgy éreztem, emellett nem mehetek el szó nélkül.

Először is nézzük meg milyen abszurd képek generálása miatt kellett leállítania ezt a funkciót a Google-nek: egyszerűen nem volt hajlandó fehér férfiakról képet készíteni, történelmi tényeket is úgy ábrázolt, mintha az egy 2024-ben készült Netflix-sorozat epizódja  lenne. Ha nem fáradtunk még bele ebbe a témába, egy finom mosolyt biztosan az arcunkra fognak csalni az alábbi képek.

Az indiai-nő pápán és a fekete bőrű nácikon akár jót is nevethetnénk, azonban ha belegondolunk, hogy néhány év múlva ilyen MI-programok segítségével fognak a gyerekeink információhoz jutni, máris egy Orwell-i jövőkép kezd kirajzolódni a lelki szemeink előtt. De mégis, mitől lehet ez, nem tudja a Google hogyan néztek ki a vikingek, vagy mitől jönnek elő ezek az abszurd képek?

A hiba a Gemini képgeneráló funkciójának felépítéshez vezethető vissza. Ugyanis amikor megadjuk a prompt-ot arról, hogy egy vikinget ábrázoló képet szeretnénk látni, az az üzenet nem egyenesen a képgeneráló AI-ba fut bele, hanem előtte átfut egy értelmező LLM-en (Large Language Model-en), ami a beírt szöveget „kijavítja” számunkra, ha úgy ítéli meg, hogy nem kellően diverz képet akartunk generálni. Ez a javított prompt fut be a képgeneráló AI-ba, ami a (például diversity, female, minority szavakkal kiegészített) új szöveg alapján hozza létre a képet, anélkül, hogy arról tájékoztatna minket, hogy miként módosult az általunk beírt prompt.

Tehát, kedves felhasználó, nem vagy elég értelmes ahhoz, hogy meg tudd fogalmazni mire van szükséged, kell számodra a Google atyai útmutatása, nehogy véletlenül egy „nemkívánatos” gondolat furakodjon be a buta kis fejedbe!

Habár úgy tűnik, hogy minden nagy, mesterséges intelligenciát fejlesztő cég ugyan ebbe a hibába esik bele, a felhasználók masszív ellenállása mégis optimistává tesz a jövővel kapcsolatban. Bízom benne, hogy a cégvezetők rájönnek nem az az irány, hogy kontrollálni próbálják az embereket, hanem az, ha elérhetővé teszik számunkra az információt, és megbíznak bennünk, hogy képesek leszünk kezelni az ezzel járó következményeket. Bár lehet, hogy csak én vagyok minden helyzetben optimista.

A Google következőképp fogalmazza meg a vállalat misszióját: „to organize the world’s information and make it universally accessible and useful”. Sajnos úgy tűnik, ettől a missziótól egyre távolabb kerül a vállalat, és már nem csupán prezentálni kívánja az információt a felhasználók felé, hanem magára vette azt a feladatot is, hogy kategorizálja milyen a „jó” és a „rossz” információ. Remélhetőleg ezen ballépés következtében a vállalat felső vezetése feleszmél végre és új irányba tereli a mesterséges intelligencia fejlesztését, és visszatér ahhoz a hozzáálláshoz, hogy csupán prezentálja az információt a felhasználói számára, akik képesek rá, hogy eldöntsék mihez kezdenek vele.

Végezetül az egyik általam követett Twitter-fiók összefoglalójával zárom a témát, ami véleményem szerint tökéletesen összefoglalja a jelenlegi helyzetet:

Ez egy véleménycikk, amely nem feltétlenül tükrözi a HOLDBLOG szerkesztőségének álláspontját.