Burzliwy dramat w Meta, szokująca przejrzystość w OpenAI i wydarzenia, które dzielą nas od AGI zaledwie kilka miesięcy. A więc - w tym tygodniu o sztucznej inteligencji.
Jeśli przegapiłeś wiadomości o sztucznej inteligencji w tym tygodniu, powiemy ci tylko jedną rzecz: Mennica uklękła (ponownie), Claude zostaje szefem biura, OpenAI w końcu przyjmuje rozwiązania open source, a Google rozwija swoją wizję sztucznego superasystenta, który będzie potrafił edytować wideo lepiej od Ciebie. I to nie jest żart. W tym tygodniu o sztucznej inteligencji – numer 15.
#15 w tym tygodniu w sztucznej inteligencji:
Meta i katastrofa Llama 4
Llama 4 miała być perełką w rozwoju sztucznej inteligencji studia Meta, ale efekt końcowy rozczarowuje. Model zaprezentowany publicznie nie jest tym samym, który brał udział w testach porównawczych i nie zrobił na nim wrażenia. Po raz pierwszy zauważył to profesor Ethan Mollick, który potwierdził, że wyniki modelu opublikowanego na łamach LLM-arena nie pokrywają się z wynikami uzyskanymi w wersji publicznej. (źródło: x.com/ethanmollick)
Następnie na Reddicie pojawiły się posty byłych pracowników Meta, którzy obecnie pracują w OpenAI, otwarcie dystansujących się od Llama 4. Jeden z nich napisał na swoim profilu: „Llama 2 i Llama 3, Llama 4? Nie mam z tym nic wspólnego”. (źródło: reddit.com)
Dodatkowo pojawiły się informacje, że w dziale sztucznej inteligencji firmy Meta doszło do wewnętrznych wstrząsów, gdy w testach porównawczych wyprzedził ją nieznany i tani chiński model DeepSeek V3. Dla firmy inwestującej miliardy w rozwój sztucznej inteligencji nie jest to małe osiągnięcie.
Claude Max i przewidywania dotyczące Claude 4
Anthropic zaskoczył w tym tygodniu nową usługą Claude Max – plan abonamentowy dla wymagających użytkowników, oferujący od pięciu do dwudziestu razy większy limit interakcji oraz priorytetowy dostęp do najnowszych modeli i funkcji. (źródło: anthropic.com)
Tymczasem Jared Kaplan, główny naukowiec w firmie Anthropic, ogłosił, że w ciągu najbliższych sześciu miesięcy zobaczymy Claude 4. Według niego rozwój modeli sztucznej inteligencji przebiega szybciej niż rozwój sprzętu, głównie ze względu na przyspieszony proces późniejszego szkolenia i udoskonalenie uczenia się przez wzmacnianie. Jedna z subtelnych, ale ważnych wiadomości tego tygodnia w dziedzinie sztucznej inteligencji.
OpenAI w końcu ogłasza model open source
Po latach krytyki za brak przejrzystości i dystansowanie się od pierwotnej misji, Sam Altman ogłosił, że OpenAI wkrótce wyda model open source, który przewyższy wszystkie istniejące alternatywy. (źródło: openai.com)
Co więcej, ChatGPT dysponuje teraz pamięcią długotrwałą, która pozwala na wykorzystanie wcześniejszych interakcji do personalizacji doświadczeń i pozwala użytkownikowi na aktywne śledzenie jego celów przez sztuczną inteligencję oraz prowadzenie go przez niezgodności w schematach myślowych.
Ale nie wszystko jest takie różowe: skrócone testy bezpieczeństwa w OpenAI
„Financial Times”. ujawniło, że OpenAI znacząco skróciło czas i zakres testowania bezpieczeństwa swoich modeli. Zamiast kilku tygodni, mają teraz na to zaledwie kilka dni, co rodzi obawy, że modele mogą zostać upublicznione z nieodkrytymi lukami w zabezpieczeniach. Były inżynier ds. testów powiedział dziennikowi „FT”, że niebezpieczeństwa związane z GPT-4 odkryto zaledwie dwa miesiące po jego wydaniu. (źródło: ft.com)
Powód jest rzekomo prosty – presja konkurencji. Firmy spieszą się z wprowadzaniem nowych modeli, aby nie pozostać w tyle. Choć są to najpotężniejsze narzędzia naszych czasów, kwestie bezpieczeństwa schodzą na dalszy plan.
DeepCode 14B: konkurent OpenAI oparty na otwartym kodzie źródłowym
DeepSeek i Aentica zaprezentowały Głęboki kod 14B, model open source służący do generowania kodu oprogramowania. Dysponując jedynie 14 miliardami parametrów, osiąga wyniki porównywalne z komercyjnymi modelami GPT-3.5. Przeszkolono go, wykonując ponad 24 000 unikalnych zadań i wykorzystując metodę GRPO+, która nagradza model tylko za idealne rozwiązanie. (źródło: github.com/aentica)
BrowseComp: Nowa liga dla agentów AI
OpenAI wprowadziło PrzeglądajComp, punkt odniesienia dla agentów AI, którzy mogą efektywnie przeglądać sieć i wyszukiwać złożone informacje. Jest on przeznaczony do testowania modeli, które muszą przejrzeć dziesiątki stron, aby dotrzeć do istotnych informacji. (źródło: github.com/openai/simple-evals)
Google prowadzi grę
Google ujawnia plany fuzji Bliźnięta I Wio modele – rozumienie tekstu, obrazu i dźwięku z generowaniem wideo. Ich celem jest stworzenie multimodalnego superasystenta, który rozumie świat tak jak my. (źródło: googlecloudnext.com)
Ponadto Google wprowadził nową generację układów AI TPU Żelazo, który jest 3600 razy wydajniejszy od pierwszej generacji z 2018 roku. Dzięki temu mogą trenować większe modele i uruchamiać je szybciej, bez konieczności polegania na technologii Nvidia.
Microsoft Copilot staje się poważnym konkurentem
Microsoftu Drugi pilot Ma nowy interfejs, funkcje wyszukiwania mieszkań, pomoc w pisaniu listów, a nawet możliwość edycji obrazów. Działa jak osobisty asystent w czasie rzeczywistym, z dostępem do ekranu i kontekstu. (źródło: microsoft.com)
Mustafa Suleyman, szef Microsoft AI, uważa, że AGI może pojawić się w ciągu pięciu lat, choć przyznaje, że podstawowe problemy – takie jak halucynacje i słabe przestrzeganie instrukcji – nie zostały jeszcze rozwiązane.
Midjourney v7: zachwycające obrazy, ale wciąż bez tekstu
Midjourney wypuściło siódmą generację swojego modelu obrazującego, który zachwyca hiperrealizmem. Jednak generowanie tekstu, jak sami przyznają, wciąż pozostaje w tyle – użytkownicy rzadko z tego korzystają, więc nie jest to priorytetem. (źródło: midjourney.com)
Robot Neo, który działa na żywo
Platforma robotyczna 1X Neo wykazała, że potrafi samodzielnie wykonywać czynności życiowe. To nie jest kolejny chwyt PR-owy; robot poruszał się, czyścił, działał bez skryptów. Jego konstrukcja obejmuje sztuczne mięśnie i elementy ruchowe, które pozwalają mu na bezpieczne współistnienie z ludźmi. (źródło: 1x.tech)
Naukowiec zajmujący się sztuczną inteligencją pisze pierwszy profesjonalny artykuł
Sakana AI Labs ogłosiło, że ich model napisał pierwszą pracę naukową, która przeszła recenzję podczas warsztatów. Sztuczna inteligencja sformułowała hipotezę, przeanalizowała dane i wyciągnęła wnioski – bez pomocy człowieka. (źródło: sakana.ai)
Wniosek
W ciągu zaledwie jednego tygodnia byliśmy świadkami upadku wizji Meta, przyspieszenia rozwoju modeli open source, niebezpiecznych trendów w testach bezpieczeństwa i pojawienia się nowej generacji agentów multimodalnych. Świat sztucznej inteligencji nie tylko rozwija się błyskawicznie – ewoluuje w kierunku, który jeszcze rok temu wydawał się science fiction.
Przyszły tydzień zapowiada się jeszcze lepiej. Jeżeli coś przegapisz, będziemy tu. W każdy poniedziałek.