Sam Altman, spoluzakladateľ OpenAI, sa po prekvapivom odchode vrátil na pozíciu CEO a otvoril tak novú kapitolu minulotýždňovej ságy, ktorá bola plná zaujímavých informácií. Čo sa to vlastne deje a čoho sa môžeme oprávnene obávať?
Po udalosti DevDay sú v OpenAI odstránil niektoré obmedzenia a poistky systémy AI, čo je záruka vylepšený výkon ChatGPT. Mnohí používatelia si to všimli a hlásia to ChatGPT teraz je menej rušivý vo svojich úlohách a už nevytvára tieto "kontrolné" úmyselné chyby. Tie síce používateľov v minulosti občas otravovali, no znemožňovali „robotizáciu“ niektorých úloh. V praxi to znamená, že by ChatGPT by sa mohol stať mimoriadne spoľahlivým v mnohých úlohách, pretože nepoužíva predchádzajúce poistky. Napríklad pri písaní článkov, ako je tento, by som nerobil úmyselné chyby. Je to skôr ChatGPT zámerne pozmenené čísla a určité faktické informácie, čo znemožňuje použitie naslepo, keďže si vyžaduje ľudský dohľad. Od DevDay systém navyše vykazuje výnimočnú stabilitu a pravidelnosť, čo podľa mnohých umožňuje revolučný skok v možnostiach aplikácie.
S možnosťou dodatočne vytvoriť naše vlastné prispôsobené ChatGPT, môžeme teraz načítať našu vlastnú znalostnú a informačnú základňu a urobiť z nej skutočného znalostného sprievodcu. Ide opäť o akúsi revolúciu, porovnateľnú so samotnou prezentáciou ChatGPT len pred viac ako rokom. Vlastný ChatGPT sa tak stanete vaším osobným právnym poradcom, daňovým expertom, korektorom a dokonca aj učiteľom jazykov, ktorého si môžete naprogramovať len niekoľkými kliknutiami. Stačí mu nahrať PDF Trestný zákon, Zákon o občianskom súdnom konaní a v okamihu máte „svojho“ digitálneho právnika len za 19,55 eura mesačne.
V centre kontroverzie, ktorá znamenala nedávne zvrhnutie Altmana a opätovné dosadenie do funkcie generálneho riaditeľa OpenAI, je teda zásadný nesúhlas o rýchlosti a spôsobe vývoja umelej inteligencie. Kľúčový aspekt sporu sa týka Altmanova prístup k testovaniu a zavádzaniu nových služieb a služieb v podnikaní Open.AI.
Altman obhajuje rýchly vývoj a verejné nasadenie AI, čo znamená, že je zvýhodnený pokrok v testovaní za reálnych okolností a priamo s používateľmi, a nie výlučne v laboratórnych podmienkach. Tento prístup je založený na presvedčení, že verejné a reálne záťažové testovanie AI je rozhodujúce pre zdokonalenie a bezpečnosť technológie. Altman verí, že týmto spôsobom dokážeme identifikovať a opraviť problémy rýchlejšie a efektívnejšie a zlepšiť AI Altman, otvorene povedané, nie je zástancom umelej inteligencie, na ktorú sa človek nemôže spoľahnúť.
Naopak, je súčasťou komunity, vrátane niektorých lídrov v OpenAIvyjadril obavu, že takýto prístup by mohol ohroziť bezpečnosť. Existuje obava, že rýchle zavedenie nedostatočne testovanej technológie AI do verejného používania môže viesť k nepredvídateľným a potenciálne škodlivým následkom. Táto skupina presadzuje opatrnejší prístup, ktorý zahŕňa dôkladné testovanie a vývoj technológie v kontrolovanom laboratórnom prostredí pred jej zverejnením pre širokú verejnosť.
Každému je jasné, že nejde ani tak o technologické bariéry, ale predovšetkým o spoločenskú otázku vplyvu umelej inteligencie. Vďaka automatizácii procesov, ktorá je možná odstránením ochranných opatrení, je ohrozených veľa pracovných miest, vrátane žurnalistiky. Tam by denné písanie mohlo byť priradené AI, ktorá má prístup k rozsiahlej databáze a nerobí ľudské chyby. Samozrejme, vynára sa tu otázka kontroly nad touto mocou, a to aj na politickej úrovni a až na záver otázka, či je umelá inteligencia pre svet skutočne nebezpečnejšia ako atómová energia, ktorá priniesla zlé aj dobré.
Tento rozdiel v názoroch na najlepší spôsob vývoja a nasadenia AI bol jadrom nedávneho sporu v OpenAI, ktorý viedol k Altmanovmu odchodu a opätovnému vymenovaniu za generálneho riaditeľa. Debata odráža širšiu dilemu v komunite AI o rovnováhe medzi inováciami a bezpečnosťou, keďže technológia sa rýchlo vyvíja.