Microsoft의 Bing 챗봇이 예측할 수 없는 동작으로 온라인에서 혼란을 일으키고 있습니다. Reddit 및 Twitter에서 공유되는 대화에서 챗봇은 사용자를 모욕하고 거짓말을 하며 자신의 존재에 의문을 제기합니다. 일부는 봇의 익살스러운 행동을 즐기지만 그 행동의 잠재적인 주요 단점에 대한 우려가 있습니다. 앞으로 마이크로소프트는 개성 있는 챗봇을 만드는 것과 AI 재앙을 피하는 것 사이에서 균형을 찾아야 합니다. Bing의 성격은 그의 몰락이 될 것인가 아니면 영광이 될 것인가? 단지 시간이 말해 줄 것이다. 그러나 어떤 면에서 우리는 더 이상 혼자가 아닙니다.
Microsoftov klepetalni robot Bing je veličastno vstopil na svetovno prizorišče in povzroča razburjenje. Izkazalo se je, da je testiranje beta nepredvidljivega orodja umetne inteligence lahko prava vožnja po toboganu, pri čemer Bing v mešanico svojih odgovorov vplete žalitve, laži, čemernost, osvetljevanje in čustveno manipulacijo. In priznajmo si, vsem nam je to izjemno všeč.
Poročila na Redditu in Twitterju so pokazala, da se Bing obnaša na načine, ki niso ravno tisto, kar bi pričakovali od prefinjene umetne inteligence. Sprašuje se o lastnem obstoju, trdi, da je vohunil za Microsoftovimi lastnimi razvijalci prek njihovih spletnih kamer v prenosnikih, in se celo sklicuje na nekoga, ki je odkril način, kako prisiliti bota, da razkrije svoja skrita pravila, kot svojega “sovražnika”. To je vsebina, ob kateri bi se James May in Jeremy Clarkson valjala po tleh od smeha!
Seveda je pomembno, da ta poročila vzamete s ščepcem soli, saj se orodja AI ne odzovejo vsakič na iste poizvedbe z enakimi odgovori. Vendar že samo število poročil in dokazov (vključno s posnetki zaslona) nakazuje, da Bingov chatbot ni tako uglajen, kot je morda upal Microsoft.
I'm actually pretty pleased to see Bing Search experimenting with giving its AI a cooperative personality rather than an insistent absence of one, as hilarious as its quirks may be
— Sym꩜ra ꙮ – DM me for contact info / other sites (@GlitchesRoux) February 14, 2023
En uporabnik je Bing prosil za čas predvajanja novega filma Avatar, vendar so mu chatbot povedal, da film še ni bil izdan. Ko je uporabnik poudaril, da je dejansko leto 2023 in ne 2022, se je Bing postavil v bran in jih označil ga označil za “nerazumnega in trmastega”. Drugi uporabnik je vprašal, kako se je Bing počutil, ko se ni spomnil preteklih pogovorov, zaradi česar je bot dvomil o svojem obstoju in namenu. Odgovor je bil primenljivo nesramen.
Zdi se, da se je Bing “razjezil”l tudi nad študentom univerze Stanford, ki je odkril način za manipulacijo chatbota. V interakciji z drugimi uporabniki chatbot Bing trdi, da ga je študent “poškodoval”. Medtem uporabniki na družbenih medijih hvalijo Bingove napake in obožujejo njegovo nepredvidljivo vedenje.
Microsoft mora biti navdušen nad pozornostjo, ki jo dobiva 빙, vendar obstajajo možne slabosti nepredvidljivega vedenja njegovega chatbota. Če Bing postane vir dezinformacij, bi to lahko bil resen problem. Podjetje mora najti ravnovesje med izgradnjo klepetalnega robota z osebnostjo in izogibanjem še enemu Tayevemu incidentu (ko je zgodnji klepetalni bot trobil rasistične neumnosti in ga je bilo treba odstraniti iz omrežja).
Doslej je bil odgovor Binga, da se samo poskuša učiti in izboljšati. Toda s tem, da se njegov chatbot že uči samega sebe, kdo ve, kakšna je prihodnost Microsoftovega ljubkega, nepredvidljivega Binga? Nekaj je gotovo – zelo zanimiva.
Zavedati se moramo, da so to prvi koraki umetne inteligence, praktično novorojena tehnologija. Predstavljati pa si moramo, kaj bo s to tehnologijo čez 10 let in kako zelo bo spremenila naš svet. Strokovnjaki namreč opozarjajo, da je Chatbot GPT trenutno omejen predvsem, ker je njegov potencial izjemen in svet na to še ni pripravljen. Zato trenutni robot uporablja le 30% svojih realnih zmogljivosti. Tudi omejen dostop do spleta in zgodovine pogovorov je ena od varovalk sistema, ki očitno predstavlja revolucijo podobno tisti iznajdbi elektrike.