OpenAI obawia się, że użytkownicy mogą uzależnić się emocjonalnie od nowej funkcji głosowej ChatGPT. Pomimo ograniczonej dostępności w Europie, już teraz obserwuje się problemy takie jak przywiązanie emocjonalne i manipulacja ludzkim głosem. Ta funkcja działa z ograniczeniami i pamięć jest niedostępna, co wpływa na wygodę użytkownika.
OpenAI wprowadziło niedawno nową funkcję mowy dla ChatGPT, która umożliwia rozmowy w czasie rzeczywistym z intonacją i szybkością zbliżoną do ludzkiej. Na pierwszy rzut oka jest to fascynująca technologia, która jest o krok bliżej do scenariuszy z filmów takich jak „Ona”. Jednakże ten przełom technologiczny okazał się również obarczony ryzykiem.
W najnowszej analizie opublikowanej przez firmę badacze odkryli, że niektórzy użytkownicy są już przywiązani emocjonalnie do swoich asystentów głosowych. Zjawisko to, zwane „antropomorfizacją”, oznacza, że ludzie przypisują technologii cechy ludzkie, co może prowadzić do głębokiego zaufania i emocjonalnego uzależnienia od niej.
Chociaż ta nowa funkcja zapewnia ogromne możliwości interakcji, otwiera także drzwi do manipulacji i nadużyć. Testy bezpieczeństwa wykazały, że wprowadzanie głosowe może również służyć do „jailbreakowania” systemu, co pozwala modelowi przekroczyć granice bezpieczeństwa i udzielić odpowiedzi, które nie są zamierzone. Ponadto funkcja jest szczególnie wrażliwa na dźwięki otoczenia, które mogą powodować nieprzewidywalne zachowania, takie jak naśladowanie własnego głosu użytkownika.
Europejscy użytkownicy nie mają jeszcze tej funkcji, ponieważ OpenAI wprowadza ją stopniowo i tylko dla ograniczonej liczby użytkowników, głównie w USA. Ponadto funkcja na razie działa z pewnymi ograniczeniami, a pamięć w ogóle nie jest uwzględniana, co oznacza, że system nie pamięta poprzednich rozmów. Ma to oczywiście wpływ na ogólne wrażenia użytkownika, które są nieco zmniejszone w porównaniu z użytkownikami w innych regionach.
Pomimo tych wszystkich wyzwań OpenAI podkreśla, że rozwój funkcji mowy jest ważnym krokiem w przyszłość, ale jednocześnie wskazuje na potrzebę ostrożności i dalszych badań, aby zapobiec ewentualnym negatywnym konsekwencjom tej technologii.
Na razie pozostaje pytanie, jak użytkownicy zareagują na te innowacje i jakie będą długoterminowe konsekwencje tej emocjonalnej technologii. Jednakże z bieżących badań i testów bezpieczeństwa jasno wynika, że OpenAI będzie musiało w dalszym ciągu uważnie monitorować rozwój i wykorzystanie tej funkcji.