fbpx

Nowa funkcja głosowa ChatGPT niepokoi OpenAI ze względu na potencjalne emocjonalne przywiązanie użytkowników

Nie jest jeszcze dostępny w Europie, ale już budzi obawy dotyczące emocjonalnego wpływu na użytkowników

ChatGPT
Zdjęcie: Pexels / Solen Eyinissa

OpenAI obawia się, że użytkownicy mogą uzależnić się emocjonalnie od nowej funkcji głosowej ChatGPT. Pomimo ograniczonej dostępności w Europie, już teraz obserwuje się problemy takie jak przywiązanie emocjonalne i manipulacja ludzkim głosem. Ta funkcja działa z ograniczeniami i pamięć jest niedostępna, co wpływa na wygodę użytkownika.

OpenAI wprowadziło niedawno nową funkcję mowy dla ChatGPT, która umożliwia rozmowy w czasie rzeczywistym z intonacją i szybkością zbliżoną do ludzkiej. Na pierwszy rzut oka jest to fascynująca technologia, która jest o krok bliżej do scenariuszy z filmów takich jak „Ona”. Jednakże ten przełom technologiczny okazał się również obarczony ryzykiem.

W najnowszej analizie opublikowanej przez firmę badacze odkryli, że niektórzy użytkownicy są już przywiązani emocjonalnie do swoich asystentów głosowych. Zjawisko to, zwane „antropomorfizacją”, oznacza, że ludzie przypisują technologii cechy ludzkie, co może prowadzić do głębokiego zaufania i emocjonalnego uzależnienia od niej.

Chociaż ta nowa funkcja zapewnia ogromne możliwości interakcji, otwiera także drzwi do manipulacji i nadużyć. Testy bezpieczeństwa wykazały, że wprowadzanie głosowe może również służyć do „jailbreakowania” systemu, co pozwala modelowi przekroczyć granice bezpieczeństwa i udzielić odpowiedzi, które nie są zamierzone. Ponadto funkcja jest szczególnie wrażliwa na dźwięki otoczenia, które mogą powodować nieprzewidywalne zachowania, takie jak naśladowanie własnego głosu użytkownika.

Zdjęcie: pexels / theshantunukr

Europejscy użytkownicy nie mają jeszcze tej funkcji, ponieważ OpenAI wprowadza ją stopniowo i tylko dla ograniczonej liczby użytkowników, głównie w USA. Ponadto funkcja na razie działa z pewnymi ograniczeniami, a pamięć w ogóle nie jest uwzględniana, co oznacza, że system nie pamięta poprzednich rozmów. Ma to oczywiście wpływ na ogólne wrażenia użytkownika, które są nieco zmniejszone w porównaniu z użytkownikami w innych regionach.

Pomimo tych wszystkich wyzwań OpenAI podkreśla, że rozwój funkcji mowy jest ważnym krokiem w przyszłość, ale jednocześnie wskazuje na potrzebę ostrożności i dalszych badań, aby zapobiec ewentualnym negatywnym konsekwencjom tej technologii.

Na razie pozostaje pytanie, jak użytkownicy zareagują na te innowacje i jakie będą długoterminowe konsekwencje tej emocjonalnej technologii. Jednakże z bieżących badań i testów bezpieczeństwa jasno wynika, że OpenAI będzie musiało w dalszym ciągu uważnie monitorować rozwój i wykorzystanie tej funkcji.

Z Wami od 2004 roku

od roku 2004 badamy miejskie trendy i codziennie informujemy naszą społeczność obserwujących o najnowszych stylach życia, podróżach, stylu i produktach, które inspirują pasją. Od 2023 roku oferujemy treści w głównych językach świata.