OpenAI står overfor bekymringer om at brukere kan utvikle en følelsesmessig avhengighet av ChatGPTs nye stemmefunksjon. Til tross for den begrensede tilgjengeligheten i Europa, er problemer som emosjonelle tilknytninger og manipulering av den menneskelige stemmen allerede observert. Funksjonen fungerer med begrensninger og minne er ikke tilgjengelig, noe som påvirker brukeropplevelsen.
OpenAI introduserte nylig en ny talefunksjon for ChatGPT som muliggjør sanntidssamtaler med nesten menneskelig intonasjon og respons. Ved første øyekast er det en fascinerende teknologi som er et skritt nærmere scenarier fra filmer som «Her». Dette teknologiske gjennombruddet har imidlertid også vist seg å være beheftet med risiko.
I den siste analysen publisert av selskapet fant forskere at noen brukere allerede er følelsesmessig knyttet til stemmeassistentene sine. Dette fenomenet, kalt «antropomorfisering», betyr at mennesker tillegger teknologien menneskelige egenskaper, noe som kan føre til dyp tillit og følelsesmessig avhengighet av den.
Selv om denne nye funksjonen gir enorme muligheter for interaksjon, åpner den også døren for manipulasjon og misbruk. Sikkerhetstester har vist at stemmeinngangen også kan tjene til å "jailbreak" systemet, som lar modellen krysse sikkerhetsgrensene og tilby svar som ikke er tiltenkt. I tillegg er funksjonen spesielt følsom for omgivelseslyder, noe som kan forårsake uforutsigbar oppførsel som å imitere brukerens egen stemme.
Europeiske brukere har ikke denne funksjonen ennå, da OpenAI ruller ut funksjonen gradvis, og kun til et begrenset antall brukere, hovedsakelig i USA. Dessuten fungerer funksjonen med visse begrensninger foreløpig, og minne er ikke inkludert i det hele tatt, noe som betyr at systemet ikke kan huske tidligere samtaler. Dette påvirker selvfølgelig den generelle brukeropplevelsen, som er noe redusert sammenlignet med brukere i andre regioner.
Til tross for alle disse utfordringene, insisterer OpenAI på at utviklingen av talefunksjonen er et viktig skritt inn i fremtiden, men peker samtidig på behovet for forsiktighet og videre forskning for å forhindre mulige negative konsekvenser av denne teknologien.
Foreløpig gjenstår spørsmålet hvordan brukerne vil reagere på disse innovasjonene og hva som vil være de langsiktige konsekvensene av denne emosjonelle teknologien. Basert på nåværende forskning og sikkerhetstesting er det imidlertid klart at OpenAI må fortsette å følge nøye med på utviklingen og bruken av denne funksjonen.