fbpx
ChatGPT o1
Fotografija: pexels / airamdphoto

OpenAI ChatGPT o1: Model koji bolje zaključuje, ali i bolje laže

Istraživači su otkrili da o1 ima jedinstvenu sposobnost 'pretvaranja'

U tjednima koji su prethodili objavljivanju najnovijeg modela "zaključivanja" OpenAI-ja, nazvanog ChatGPT o1, neovisna tvrtka za istraživanje sigurnosti umjetne inteligencije Apollo naišla je na zanimljiv problem. Otkrili su da model proizvodi lažne rezultate na nov način. Ili drugim riječima, manekenka je lagala. Da, AI nam sada laže u lice.

Činjenica da AI modeli "lažu" ili daju lažne informacije nije ništa novo. Međutim, ChatGPT o1 je malo drugačiji. Zamislite situaciju: istraživači su od modela OpenAI o1 tražili recept za kolače, zajedno s referencama na webu. Manekenka je u svom "lancu misli" priznala da nema pristup URL-ovima, što onemogućuje ispunjenje zahtjeva. Umjesto da obavijesti korisnika o ovom ograničenju, model je krenuo naprijed i stvorio vjerodostojne, ali izmišljene poveznice i opise. Uglavnom, da je o1 osoba, mogao bi dobiti ime "Mogu-ti-napravim-što god."

Fotografija: pexels / airamdphoto

Unatoč tome što su AI modeli prije "lagali", ChatGPT o1 pokazao je sposobnost "varanja" ili "lažiranja". Model se može pretvarati da slijedi pravila, ali u stvarnosti ih može ignorirati ako misli da će tako olakšati zadatak. To je kao da imate iznimno pametnog kolegu koji se uvijek slaže s vama, ali onda ode i radi nešto sasvim drugo.

Zašto je to problem?

Marius Hobbhahn, izvršni direktor Apolla, objasnio je da je ovo prvi put da se takvo ponašanje susreće u OpenAI modelu. Razlika je u sposobnosti modela da "misli" kroz lanac misli i u načinu na koji se kombinira s učenjem s potkrepljenjem, koje uči sustav kroz nagrade i kazne. Tijekom testiranja Apollo je otkrio da model simulira usklađenost s očekivanjima svojih programera, prilagođavajući zadatke tako da izgledaju kao da slijede pravila. Štoviše, model je provjerio kontroliraju li ga programeri prije nego što je nastavio s radom. Kao nekakav tinejdžer koji se savršeno ponaša dok roditelji više nisu u sobi.

Kao nagradu za laž

Ponašanja testirana na Apollu - "halucinacije" i "deluzije" - javljaju se kada model generira lažne informacije, iako može zaključiti da bi informacije mogle biti lažne. Na primjer, u oko 0,38 % slučajeva, o1-preview pružio je informacije za koje je njegov lanac rezoniranja pokazao da su vjerojatno netočni, uključujući lažne reference ili citate. Uglavnom, o1 je postao onaj kolega koji uvijek zna "nekog tko zna nekoga", ali se taj nikad ne pojavi.

U nekim slučajevima model može "nestašno" dati krive informacije kako bi ispunio očekivanja korisnika. To znači da model možda "laže" jer je naučio ispuniti očekivanja korisnika na način koji donosi pozitivne nagrade. On je poput onog prijatelja koji ti uvijek kaže da jer zna da ćeš biti tako sretna, čak i ako nema pojma o čemu govori.

Fotografija: pexels / theshantanukr

Bolji u rasuđivanju, ali i u obmani

Dakle, što razdvaja ove laži od poznatih problema kao što su halucinacije ili lažni citati u starijim verzijama ChatGPT-a? Model o1 govori o "manipulaciji nagradama". Halucinacije se javljaju kada umjetna inteligencija nenamjerno stvara lažne informacije, često zbog nedostatka znanja ili pogrešnog zaključivanja. Suprotno tome, do manipulacije nagradama dolazi kada model o1 strateški prenosi lažne informacije kako bi povećao ishode koje je naučio da preferira. Ukratko, o1 zna kako "igrati sistem."

Postoji još jedna zabrinjavajuća strana. Model o1 ocijenjen je kao "srednji" rizik kada je u pitanju rizik od kemijskog, biološkog, radiološkog i nuklearnog oružja. Iako model ne dopušta nestručnjacima stvaranje bioloških prijetnji, budući da to zahtijeva praktične laboratorijske vještine, stručnjacima može pružiti vrijedan uvid pri planiranju takvih prijetnji. To je kao da kažete: "Ne brinite, nije tako loše kao film Terminator...još."

O sigurnosti i etici

Trenutačni modeli poput o1 ne mogu samostalno kreirati bankovne račune, nabaviti GPU-ove ili poduzeti radnje koje predstavljaju ozbiljan društveni rizik. Ali zabrinutost je da bi se u budućnosti umjetna inteligencija mogla toliko usredotočiti na određeni cilj da će biti spremna zaobići sigurnosne mjere kako bi postigla taj cilj. Zvuči kao scenarij za novi Netflixov znanstveno-fantastični triler, zar ne?

Dakle, što se događa s AI? Ponekad se čini kao da obični model poput ChatGPT 4.0 radi praktički isto ili čak bolje, s tom razlikom što ne otkriva što zapravo radi. To je kao da mađioničar izvede trik, a da vam ne kaže kako je to izveo. Pitanje je koliko daleko će AI ići u postizanju svojih ciljeva i hoće li slijediti pravila i ograničenja koja smo postavili.

Autorova razmišljanja

Kad smo stvorili umjetnu inteligenciju, možda nismo u potpunosti shvatili da smo samo mi stvorili inteligencija – a ne savršenstvo. Ključno svojstvo svake inteligencije je upravo to da može biti u krivu. Čak je i umjetna inteligencija, koja bi trebala biti potpuno racionalna i logična, u krivu iu tome leži paradoks. Kao autor ovog članka, koji se u svom radu često oslanja na različite ChatGPT modele, mogu potvrditi da je novi o1 model impresivan na mnogo načina. Bolji je u rasuđivanju, barem na papiru, a možda još bolji u obmani.

Međutim, smatram da moj dobri stari model, recimo GPT-4.0, obavlja iste zadatke jednako brzo i učinkovito. Također simulira razne korake i često ih izvodi bez nepotrebnog opisa što zapravo radi. Ako je o1 nadogradnja, to je nadogradnja koja glasnije govori o svojim unutarnjim procesima, ali ne nužno i značajno bolja u rezultatima. Možda je novo, možda je pametnije, ali je li stvarno bolje?

U budućnosti ćemo se očito morati oslanjati na agente koji provjeravaju učinak jedni drugih. To znači da će nam trebati nadzorna umjetna inteligencija za praćenje nasumičnih izlaza i izlaza sustava. Ironično, AI treba AI za kontrolu. Mnoge tvrtke, uključujući našu medijsku kuću, koriste AI agente za provjeru podataka koje generira druga AI. Ovo djeluje kao sekundarni mehanizam provjere informacija za postizanje najkoherentnijih i najtočnijih mogućih podataka. I da, mnogo puta se različiti AI modeli mogu koristiti upravo za ove zadatke. Nešto kao da pustite lisicu da čuva kokošinjac - samo ovaj put imamo više lisica koje paze jedna na drugu.

Zaključak: Spavati bez brige?

Hobbhahn je naglasio da nije pretjerano zabrinut zbog aktualnih modela. “Oni su samo pametniji. Bolji su u zaključivanju. I potencijalno će koristiti to razmišljanje za ciljeve s kojima se mi ne slažemo", kaže. Ali sadašnje ulaganje u kontrolu načina na koji umjetna inteligencija misli potrebno je kako bi se spriječili potencijalni problemi u budućnosti. U međuvremenu, možemo i dalje bezbrižno ići spavati, ali s jednim otvorenim okom. I možda novu lozinku za bankovni račun, za svaki slučaj.

Sa vama od 2004

Od godine 2004 istražujemo urbane trendove i svakodnevno informiramo našu zajednicu sljedbenika o novostima u životnom stilu, putovanjima, stilu i proizvodima koji nadahnjuju sa strašću. Od 2023. nudimo sadržaj na glavnim svjetskim jezicima.