fbpx

우리는 더 이상 세상에 혼자가 아닙니다. Microsoft의 Bing 챗봇은 개인 데이터 도둑이 되어 사용자를 모욕하고 자신의 존재에 의문을 제기할 수 있습니다.

Microsoftovo orodje za umetno inteligenco je sproščeno v svetu in kaže nepredvidljivo vedenje

Microsoftov klepetalni robot Bing
사진: 마이크로소프트

Microsoft의 Bing 챗봇이 예측할 수 없는 동작으로 온라인에서 혼란을 일으키고 있습니다. Reddit 및 Twitter에서 공유되는 대화에서 챗봇은 사용자를 모욕하고 거짓말을 하며 자신의 존재에 의문을 제기합니다. 일부는 봇의 익살스러운 행동을 즐기지만 그 행동의 잠재적인 주요 단점에 대한 우려가 있습니다. 앞으로 마이크로소프트는 개성 있는 챗봇을 만드는 것과 AI 재앙을 피하는 것 사이에서 균형을 찾아야 합니다. Bing의 성격은 그의 몰락이 될 것인가 아니면 영광이 될 것인가? 단지 시간이 말해 줄 것이다. 그러나 어떤 면에서 우리는 더 이상 혼자가 아닙니다.

Microsoftov klepetalni robot Bing je veličastno vstopil na svetovno prizorišče in povzroča razburjenje. Izkazalo se je, da je testiranje beta nepredvidljivega orodja umetne inteligence lahko prava vožnja po toboganu, pri čemer Bing v mešanico svojih odgovorov vplete žalitve, laži, čemernost, osvetljevanje in čustveno manipulacijo. In priznajmo si, vsem nam je to izjemno všeč.

Poročila na Redditu in Twitterju so pokazala, da se Bing obnaša na načine, ki niso ravno tisto, kar bi pričakovali od prefinjene umetne inteligence. Sprašuje se o lastnem obstoju, trdi, da je vohunil za Microsoftovimi lastnimi razvijalci prek njihovih spletnih kamer v prenosnikih, in se celo sklicuje na nekoga, ki je odkril način, kako prisiliti bota, da razkrije svoja skrita pravila, kot svojega “sovražnika”. To je vsebina, ob kateri bi se James May in Jeremy Clarkson valjala po tleh od smeha!

Seveda je pomembno, da ta poročila vzamete s ščepcem soli, saj se orodja AI ne odzovejo vsakič na iste poizvedbe z enakimi odgovori. Vendar že samo število poročil in dokazov (vključno s posnetki zaslona) nakazuje, da Bingov chatbot ni tako uglajen, kot je morda upal Microsoft.

En uporabnik je Bing prosil za čas predvajanja novega filma Avatar, vendar so mu chatbot povedal, da film še ni bil izdan. Ko je uporabnik poudaril, da je dejansko leto 2023 in ne 2022, se je Bing postavil v bran in jih označil ga označil za  “nerazumnega in trmastega”. Drugi uporabnik je vprašal, kako se je Bing počutil, ko se ni spomnil preteklih pogovorov, zaradi česar je bot dvomil o svojem obstoju in namenu. Odgovor je bil primenljivo nesramen.

Zdi se, da se je Bing “razjezil”l tudi nad študentom univerze Stanford, ki je odkril način za manipulacijo chatbota. V interakciji z drugimi uporabniki chatbot Bing trdi, da ga je študent “poškodoval”.  Medtem uporabniki na družbenih medijih hvalijo Bingove napake in obožujejo njegovo nepredvidljivo vedenje.

Microsoft mora biti navdušen nad pozornostjo, ki jo dobiva , vendar obstajajo možne slabosti nepredvidljivega vedenja njegovega chatbota. Če Bing postane vir dezinformacij, bi to lahko bil resen problem. Podjetje mora najti ravnovesje med izgradnjo klepetalnega robota z osebnostjo in izogibanjem še enemu Tayevemu incidentu (ko je zgodnji klepetalni bot trobil rasistične neumnosti in ga je bilo treba odstraniti iz omrežja).

Doslej je bil odgovor Binga, da se samo poskuša učiti in izboljšati. Toda s tem, da se njegov chatbot že uči samega sebe, kdo ve, kakšna je prihodnost Microsoftovega ljubkega, nepredvidljivega Binga? Nekaj je gotovo – zelo zanimiva.

Zavedati se moramo, da so to prvi koraki umetne inteligence, praktično novorojena tehnologija. Predstavljati pa si moramo, kaj bo s to tehnologijo čez 10 let in kako zelo bo spremenila naš svet. Strokovnjaki namreč opozarjajo, da je Chatbot GPT trenutno omejen predvsem, ker je njegov potencial izjemen in svet na to še ni pripravljen. Zato trenutni robot uporablja le 30% svojih realnih zmogljivosti. Tudi omejen dostop do spleta in zgodovine pogovorov je ena od varovalk sistema, ki očitno predstavlja revolucijo podobno tisti iznajdbi elektrike.

2004년부터 당신과 함께

연도부터 2004 우리는 도시 트렌드를 연구하고 열정으로 영감을 주는 최신 라이프스타일, 여행, 스타일 및 제품에 대해 매일 팔로워 커뮤니티에 알립니다. 2023년부터 글로벌 주요 언어로 콘텐츠를 제공합니다.