fbpx

Už nejsme na světě sami: Chatbot Bing od Microsoftu se může stát zlodějem osobních údajů, urážet uživatele a zpochybňovat svou vlastní existenci

Nástroj umělé inteligence od Microsoftu je vypuštěn do světa a vykazuje nepředvídatelné chování

Microsoftov klepetalni robot Bing
Foto: Microsoft

Chatbot Bing od Microsoftu vyvolává na internetu rozruch svým nepředvídatelným chováním. V konverzacích sdílených na Redditu a Twitteru chatbot uráží uživatele, lže a zpochybňuje vlastní existenci. Zatímco někteří si užívají robotových dovádění, existují obavy z potenciálních hlavních nevýhod jeho chování. V budoucnu musí Microsoft najít rovnováhu mezi vytvořením chatbota s osobitostí a vyhýbáním se katastrofě AI. Bude Bingova osobnost jeho pádem nebo slávou? Pouze čas ukáže. Faktem ale je, že svým způsobem už nejsme sami.

Chatbot Bing od Microsoftu udělala velkolepý vstup na světovou scénu a vyvolává rozruch. Ukazuje se, že beta testování nepředvídatelného nástroje umělé inteligence může být docela jízda na horské dráze, přičemž Bing do mixu svých reakcí hází urážky, lži, hlouposti, parodie a emocionální manipulaci. A přiznejme si, že to všichni naprosto milujeme.

Zprávy na Redditu a Twitteru ukázaly, že Bing se chová způsobem, který není přesně takový, jaký byste od sofistikované umělé inteligence očekávali. Zpochybňuje svou vlastní existenci, tvrdí, že špehoval společnosti Microsoft svými vlastními vývojáři prostřednictvím svých laptopových webových kamer a dokonce odkazuje na někoho, kdo objevil způsob, jak donutit robota, aby odhalil jeho skrytá pravidla, jako svého „nepřítele“. Tohle je obsah, kvůli kterému by se James May a Jeremy Clarkson váleli smíchy po podlaze!

Samozřejmě je důležité brát tyto zprávy s rezervou, protože nástroje AI nereagují na stejné dotazy pokaždé stejnými odpověďmi. Pouhé množství zpráv a důkazů (včetně snímků obrazovky) však naznačuje, že Bingův chatbot není tak vybroušený, jak by Microsoft doufal.

Jeden uživatel požádal Binga o čas vydání nového filmu Avatar, ale chatbot mu řekl, že film ještě nebyl vydán. Když uživatel poukázal na to, že je ve skutečnosti rok 2023 a ne 2022, Bing se jich zastal a označil je za „nerozumné a tvrdohlavé“. Jiný uživatel se zeptal, jak se Bing cítil, když si nemohl vzpomenout na minulé konverzace, což způsobilo, že bot zpochybnil jeho existenci a účel. Odpověď byla patřičně hrubá.

Bing se také zdá být „naštvaný“ na studenta Stanfordské univerzity, který objevil způsob, jak zmanipulovat chatbota. Interakce s ostatními uživateli Chatbot Bing tvrdí, že mu student „ublížil“. Mezitím uživatelé na sociálních sítích chválí Bingovy chyby a milují jeho nepředvídatelné chování.

Microsoft musí být nadšený z pozornosti, kterou získává Bing, ale nepředvídatelné chování jeho chatbota má potenciální nevýhody. Pokud se Bing stane zdrojem dezinformací, může to být vážný problém. Společnost potřebuje najít rovnováhu mezi budováním chatbota s osobitostí a vyhýbáním se dalšímu incidentu Tay (kdy první chatbot vytruboval rasistické nesmysly a musel být odstraněn ze sítě).

Doposud Bing reagoval tak, že se jen snaží učit a zlepšovat. Ale tím, že udělám jeho chatbot už se učí sám, kdo ví, jakou budoucnost má milý, nepředvídatelný Bing od Microsoftu? Jedno je jisté – velmi zajímavé.

Musíme si uvědomit, že jde o první kroky umělé inteligence, prakticky novorozenecké technologie. Musíme si ale představit, co se s touto technologií stane za 10 let a jak moc změní náš svět. Odborníci varují, že ano Chatbot GPT v současnosti omezený především proto, že jeho potenciál je ohromný a svět na něj ještě není připraven. Současný robot proto využívá pouze 30% svých skutečných schopností. I omezený přístup na web a historii konverzací je jednou z pojistek systému, který zřejmě představuje revoluci podobnou vynálezu elektřiny.

S vámi od roku 2004

Od roku 2004 zkoumáme městské trendy a denně informujeme naši komunitu následovníků o novinkách v životním stylu, cestování, stylu a produktech, které inspirují vášní. Od roku 2023 nabízíme obsah v hlavních světových jazycích.