Dirbtinio intelekto tyrėjai įspėja: haliucinacijos išlieka pirmaujančiuose dirbtinio intelekto modeliuose

Tikrovės iškraipymas: kodėl didieji AI modeliai vis dar fantazuoja

Dirbtinio intelekto revoliucija įsibėgėja, tačiau kartu su nuostabiais pasiekimais atkeliauja ir rimtos problemos. Viena iš jų – haliucinacijos, kurios išlieka net ir pažangiausiuose modeliuose. Šis reiškinys, kai AI sugeneruoja visiškai išgalvotą informaciją ir pateikia ją kaip faktą, kelia nerimą ne tik eiliniams vartotojams, bet ir patiems kūrėjams.

Neseniai grupė tyrėjų iš Stanfordo, MIT ir kitų prestižinių institucijų paskelbė rezultatus, rodančius, kad net ir naujausi GPT-4, Claude ir Gemini modeliai vis dar linkę „sapnuoti” atsakymus, kai susiduria su sudėtingesnėmis užklausomis. Ypač nerimą kelia tai, kad šie modeliai dažnai pateikia haliucinacijas su tokiu pasitikėjimu, kad net patyrę vartotojai negali atskirti tiesos nuo prasimanymo.

Pavojingas pasitikėjimas: kada AI fantazijos tampa problema

Įsivaizduokite gydytoją, kuris pasikliauja AI rekomendacijomis dėl vaistų dozavimo, arba teisininką, kuris remiasi AI sugeneruotais teisiniais precedentais. Kai šiose srityse įsivelia haliucinacijos, pasekmės gali būti katastrofiškos.

Problema slypi ne tik pačiose haliucinacijose, bet ir tame, kaip jos pateikiamos. Šiuolaikiniai modeliai sugeba generuoti klaidingą informaciją su tokiu įtikinamumu, kad net specialistai kartais būna apgauti. Jie cituoja neegzistuojančius mokslinius tyrimus, išgalvoja statistiką ir kuria nesamus faktus taip įtikinamai, kad atrodo visiškai patikimi.

„Tai yra fundamentali problema, kuri negali būti išspręsta tik didinant parametrų skaičių ar tobulinant mokymosi algoritmus,” – teigia vienas iš tyrėjų. „Mes turime pripažinti, kad dabartiniai modeliai neturi tikro supratimo apie pasaulį – jie tik manipuliuoja žodžiais pagal statistinius dėsnius.”

Kodėl technologijos milžinai vengia atvirumo

Nors OpenAI, Anthropic ir Google savo pranešimuose spaudai giriasi nuolat mažėjančiu haliucinacijų skaičiumi, realybė yra kur kas sudėtingesnė. Šios kompanijos vengia atskleisti tikruosius savo modelių trūkumus dėl akivaizdžių priežasčių – konkurencija rinkoje yra įnirtinga, o investuotojai tikisi nuolatinės pažangos.

Problema gilėja, kai pradedame analizuoti, kaip šios kompanijos matuoja haliucinacijas. Dažniausiai naudojami testai yra sukurti pačių kompanijų ir pritaikyti jų modeliams. Tai primena situaciją, kai mokytojas leidžia mokiniams patiems sukurti ir įvertinti savo egzaminą.

Nepriklausomi tyrėjai, bandydami atkartoti kompanijų teigiamus rezultatus, dažnai susiduria su visiškai kitokia realybe. Vienas iš tokių tyrimų parodė, kad GPT-4 haliucinacijų lygis tam tikrose užduotyse siekia net 27%, nors oficialiai skelbiama, kad jis neviršija 5%.

Skaitmeninės haliucinacijos: kaip jas atpažinti

Kaip eiliniam vartotojui apsisaugoti nuo AI haliucinacijų? Štai keletas praktinių patarimų:

1. Visada tikrinkite faktinę informaciją iš kelių šaltinių, ypač jei ji atrodo neįprasta ar pernelyg ideali jūsų poreikiams.

2. Būkite ypač atsargūs su specifine technine informacija, statistika ir citatomis – būtent čia haliucinacijos pasitaiko dažniausiai.

3. Užduokite papildomų klausimų apie pateiktą informaciją – kartais AI „susipainios” savo paties sukurtose fantazijose.

4. Naudokite AI kaip idėjų generatorių, o ne kaip galutinį sprendimų priėmėją.

5. Jei įmanoma, naudokite specializuotus įrankius konkrečioms užduotims, o ne universalius modelius.

Kaip vienas ekspertas taikliai pastebėjo: „Šiuolaikiniai AI modeliai yra kaip itin įtikinami melagiai – jie ne tik sukuria išgalvotas istorijas, bet ir patys pradeda jomis tikėti.”

Technologinė aklavietė: kodėl problema išlieka neišspręsta

Dabartiniai modeliai remiasi statistiniu tikimybių modeliavimu, o ne tikru pasaulio supratimu. Jie mokosi iš milžiniškų tekstų masyvų, ieškodami dėsningumų ir sąsajų tarp žodžių, bet neturi tikro supratimo apie tai, ką šie žodžiai reiškia realybėje.

Kai modelis susiduria su užklausa, kuriai neturi tikslaus atsakymo savo „atmintyje”, jis bando sugeneruoti tai, kas statistiškai atrodo labiausiai tikėtina, remiantis panašiais tekstais, su kuriais buvo supažindintas mokymosi metu. Šis procesas dažnai veda prie haliucinacijų.

„Tai primena situaciją, kai žmogus bando atsakyti į klausimą apie temą, apie kurią jis tik šiek tiek girdėjo, bet nenori pripažinti savo nežinojimo,” – aiškina kognityvinių mokslų specialistė. „Skirtumas tas, kad žmonės paprastai žino, kada jie spėlioja, o AI modeliai – ne.”

Technologijų kompanijos bando spręsti šią problemą įvairiais būdais – nuo papildomo mokymo iki išorinių žinių bazių integravimo. Tačiau kol kas nė vienas sprendimas nepasirodė esąs universalus.

Etinė atsakomybė: kas kaltas, kai AI meluoja?

Kai AI sistema pateikia klaidingą informaciją, kyla sudėtingas klausimas – kas už tai atsakingas? Kūrėjai? Vartotojai? Pati sistema?

Šiuo metu teisinė sistema dar nėra pasirengusi spręsti tokių klausimų. Dauguma AI sistemų yra platinamos su išlygomis, nurodančiomis, kad kompanijos neprisiima atsakomybės už jų pateiktą informaciją. Tačiau augant šių sistemų integracijai į kritines sritis, toks požiūris tampa vis labiau problemiškas.

„Mes negalime leisti, kad technologijų kompanijos nusiplautų rankas, kai jų produktai daro realią žalą,” – teigia technologijų etikos specialistė. „Jei tu sukuri ir platini sistemą, kuri gali pateikti klaidingą medicininę informaciją, tu turi prisiimti bent dalį atsakomybės už pasekmes.”

Kai kurios šalys jau pradeda kurti reguliavimo sistemas, skirtas spręsti šią problemą. Europos Sąjunga su savo AI aktu bando nustatyti atsakomybės ribas, tačiau ekspertai sutinka, kad reikalingas globalus požiūris.

Už iliuzijų horizonto: ką daryti toliau

Nepaisant visų problemų, dirbtinis intelektas išlieka viena perspektyviausių šiuolaikinių technologijų. Tačiau norint išnaudoti visą jo potencialą, turime pripažinti jo ribotumą ir dirbti ties jų įveikimu.

Vienas iš perspektyviausių sprendimų – hibridinės sistemos, jungiančios statistinius modelius su simbolinėmis žinių bazėmis. Tokios sistemos galėtų išlaikyti dabartinių modelių lankstumą, kartu įgydamos gebėjimą tiksliau reprezentuoti faktinę informaciją.

Kita kryptis – didesnis skaidrumas. Vartotojai turėtų aiškiai matyti, kada sistema yra tikra dėl savo atsakymo, o kada ji tik spėlioja. Kai kurios kompanijos jau eksperimentuoja su „pasitikėjimo balais” ar panašiomis sistemomis, bet šios pastangos dar tik pradiniame etape.

Galiausiai, mums visiems reikia vystyti kritinį mąstymą ir skaitmeninį raštingumą. Net ir tobuliausia AI sistema negali pakeisti žmogaus gebėjimo vertinti informaciją ir priimti sprendimus.

Dirbtinio intelekto haliucinacijos nėra tik techninis iššūkis – tai fundamentalus klausimas apie tai, kaip mes kuriame, naudojame ir reguliuojame technologijas, galinčias transformuoti mūsų visuomenę. Ir nors tobulo sprendimo dar nėra, pirmasis žingsnis link jo – pripažinti problemą visame jos sudėtingume.

Leave a Reply

Your email address will not be published. Required fields are marked *