Sam Altman, de mede-oprichter van OpenAI, is na een verrassend vertrek teruggekeerd naar de functie van CEO en opende een nieuw hoofdstuk in de saga van vorige week, die vol stond met interessante informatie. Wat gebeurt er feitelijk en waar kunnen we ons terecht zorgen over maken?
Na de gebeurtenis Ontwikkelaar zijn bij OpenAI heeft enkele beperkingen verwijderd en zekeringen AI-systemen, wat een garantie is verbeterde prestaties van ChatGPT. Veel gebruikers hebben dat opgemerkt en gerapporteerd ChatGPT hij is nu minder verstorend in zijn taken en creëert niet langer deze opzettelijke "controle" -fouten. Hoewel deze gebruikers in het verleden soms irriteerden, verhinderden ze de ‘robotisering’ van bepaalde taken. In de praktijk betekent dit dat dit wel het geval zal zijn ChatGPT zou bij veel taken uiterst betrouwbaar kunnen worden, omdat het geen gebruik maakt van de vorige zekeringen. Ik zou bijvoorbeeld geen opzettelijke fouten maken bij het schrijven van artikelen als deze. Het is eerder ChatGPT opzettelijk gewijzigde cijfers en bepaalde feitelijke informatie, waardoor het onmogelijk werd om blindelings te gebruiken omdat daarvoor menselijk toezicht nodig was. Van Ontwikkelaar bovendien vertoont het systeem uitzonderlijke stabiliteit en regelmaat, wat volgens velen een revolutionaire sprong in toepassingsmogelijkheden mogelijk maakt.
Met de mogelijkheid om bovendien onze eigen aangepaste ChatGPT's te maken, kunnen we er nu onze eigen kennis- en informatiebasis op laden en er een echte kenniswizard van maken. Dit is opnieuw een soort revolutie, vergelijkbaar met de presentatie zelf ChatGPT iets meer dan een jaar geleden. Aangepaste chatGPT Zo wordt u uw persoonlijke juridisch adviseur, belastingdeskundige, proeflezer en zelfs een taalleraar die u met slechts een paar klikken kunt programmeren. Upload gewoon de pdf van het Wetboek van Strafrecht en het Wetboek van Burgerlijke Rechtsvordering naar hem en in een handomdraai heeft u "uw" digitale advocaat voor slechts 19,55 euro per maand.
Centraal in de controverse die het recente ontslag en herstel van Altman als CEO markeerde AI openen, is dus een fundamenteel meningsverschil over de snelheid en wijze van ontwikkeling van kunstmatige intelligentie. Een belangrijk aspect van het geschil heeft betrekking op Altman's aanpak voor het testen en introduceren van nieuwe diensten en diensten in het bedrijfsleven Open.AI.
Altman pleit voor een snelle ontwikkeling en publieke inzet van AI, wat betekent dat hij de voorkeur heeft het testen van de voortgang in realistische omstandigheden en rechtstreeks met gebruikers, in plaats van uitsluitend onder laboratoriumomstandigheden plaats te vinden. Deze aanpak is gebaseerd op de overtuiging dat publieke en real-world stresstests van AI van cruciaal belang zijn voor de verfijning en veiligheid van de technologie. Altman gelooft dat we op deze manier problemen sneller en efficiënter kunnen identificeren en oplossen en AI kunnen verbeteren Altman is, om het maar eens bot te zeggen, geen voorstander van kunstmatige intelligentie waar een mens niet op kan vertrouwen.
Integendeel, het maakt deel uit van de gemeenschap, waaronder enkele leiders in de gemeenschap AI openen, uitte zijn bezorgdheid dat een dergelijke aanpak de veiligheid in gevaar zou kunnen brengen. De zorg is dat de snelle introductie van onvoldoende geteste AI-technologie in publiek gebruik kan leiden tot onvoorspelbare en potentieel schadelijke gevolgen. Deze groep pleit voor een voorzichtigere aanpak waarbij de technologie grondig wordt getest en ontwikkeld in een gecontroleerde laboratoriumomgeving voordat deze aan het grote publiek wordt vrijgegeven.
Het is voor iedereen duidelijk dat het niet zozeer een kwestie is van technologische barrières, maar vooral een maatschappelijk vraagstuk van de invloed van kunstmatige intelligentie. Door de automatisering van processen, die mogelijk is door het wegnemen van waarborgen, staan veel banen op de tocht, ook in de journalistiek. Daar zou het dagelijkse schrijven kunnen worden toegewezen aan een AI die toegang heeft tot een enorme database en geen menselijke fouten maakt. Natuurlijk komt hier de vraag naar de controle over deze macht aan de orde, zelfs op politiek niveau, en pas uiteindelijk de vraag of kunstmatige intelligentie werkelijk gevaarlijker is voor de wereld dan atoomenergie, die zowel slecht als goed heeft gebracht.
Deze verdeeldheid over de beste manier om AI te ontwikkelen en in te zetten vormde de kern van een recent dispuut bij OpenAI dat leidde tot het vertrek en de herbenoeming van Altman als CEO. Het debat weerspiegelt een breder dilemma in de AI-gemeenschap over de balans tussen innovatie en veiligheid naarmate de technologie zich snel ontwikkelt.