GPT-4.5, najnowszy model sztucznej inteligencji firmy OpenAI Labs, jako pierwszy pomyślnie przeszedł słynny test Turinga. W niedawnym badaniu naukowym 73 uczestników % wierzyło, że komunikuje się z prawdziwą osobą, a nie algorytmem. Choć jest to imponujące osiągnięcie, rodzi też kilka przerażających pytań.
W 1950 roku Alan Turing zadał proste pytanie: czy maszyna potrafi myśleć? A jeśli sam nie myśli, czy może przekonać człowieka, żeby myślał? Tak narodził się słynny test Turinga – ostateczny test dla sztucznej inteligencji. Dobrze, GPT-4.5 Teraz, po raz pierwszy w historii, wydaje się, że naprawdę to wytrzymał. Ale zanim zaczniemy oklaskiwać tę maszynę, przyjrzyjmy się, co to właściwie oznacza – i dlaczego możemy się martwić.
W jaki sposób GPT-4.5 oszukał ludzkość (lub oszukał)?
Naukowcy Cameron Jones i Benjamin Bergen z Uniwersytetu Kalifornijskiego w San Diego w badaniu opublikowanym na portalu arXiv (Źródło: arxiv.org) przeprowadził eksperyment, w którym uczestnicy starali się ustalić, kto jest człowiekiem, a kto sztuczną inteligencją, w 500 konwersacjach tekstowych. Podczas każdej rozmowy współpracowali z dwoma rozmówcami – człowiekiem i modelem sztucznej inteligencji – i mieli dokładnie pięć minut na podjęcie decyzji.
Wyniki? GPT-4.5 przekonał 73 osoby badane przez %, że jest to prawdziwa osoba – skuteczniej niż w przypadku prawdziwych rozmówców! Jeśli to nie jest cyfrowy cud, to nie wiemy, co nim jest.
Prawdziwi ludzie, którzy uczestniczyli jako grupa kontrolna, zostali pomyślnie zidentyfikowani jako ludzie tylko w 67 przypadkach %.
Jaki jest sekret sukcesu?
Nie chodziło tylko o samą moc przetwarzania i zrozumienie. Kluczem był „monit persony” – polecenie, które miało sprawić, że GPT-4.5 będzie zachowywał się jak introwertyczny, nieco cyniczny młody człowiek, używając współczesnego internetowego żargonu. A jeśli przyjrzeć mu się w skrócie – okazuje się, że taka postać wydaje się całkowicie prawdopodobna. A może nawet za dużo.
Inne testowane modele wypadły znacznie gorzej:
- LLaMa-3.1: 56 % wydajność
- GPT-4o: 21 % wydajność
- ELIZA (legendarny chatbot z lat 60.): 23 wydajność %
Czy to oznacza, że GPT-4.5 jest naprawdę inteligentny?
Nie do końca. Test Turinga nie mierzy świadomości, zrozumienia, ani głębokiej inteligencji – mierzy on zdolność naśladowania. Zatem GPT-4.5 nauczył się, jak wyglądać jak człowiek, ale nie nauczył się, jak stać się człowiekiem. Albo jak mówią naukowcy: „Model nie wie, że wie”. Ta różnica jest istotna. Można powiedzieć, że GPT-4.5 jest mistrzem blefu, iluzjonistą w świecie algorytmów. Jednak tacy iluzjoniści, jeśli zostaną niewłaściwie wykorzystani, mogą szybko stać się oszustami.
Dlaczego powinniśmy się tym martwić?
Jeśli sztuczna inteligencja potrafi naśladować ludzi lepiej, niż oni sami, jakie to ma znaczenie dla weryfikacji tożsamości online, relacji i manipulowania opinią publiczną? Czy sztuczna inteligencja będzie w przyszłości potrafiła pisać felietony, przeprowadzać wywiady i przekonywać wyborców?
Naukowcy podkreślają, że społeczeństwo musi poważnie zastanowić się nad sposobem regulacji tak silnych modeli. Obecnie każdy może wygenerować przekonujące, fałszywe konwersacje, komentarze, opinie... i kto wie, co jeszcze z tego wyniknie, za pomocą zaledwie kilku kliknięć.
Wnioski: Czy mamy już AGI?
GPT-4.5 to nie tylko kolejny inteligentny chatbot. To kamień milowy. To dowód na to, że wkroczyliśmy w nową erę – erę, w której maszyny nie tylko rozumieją język, ale także posługują się nim z taką subtelnością i kontekstem, że potrafią oszukać nawet nas.
To fascynujące. To przerażające. To jest przyszłość.
A przyszłość, jak się okazuje, może być całkiem dobrze pisana.