Drama explosivo na Meta, transparência chocante na OpenAI e desenvolvimentos que nos colocam a poucos meses da AGI. Então - esta semana em inteligência artificial.
Se você perdeu as notícias sobre IA esta semana, deixe-nos dizer apenas uma coisa: hortelã ela se ajoelhou (de novo), Claude se torna o chefe do escritório, OpenAI está finalmente adotando o código aberto, e o Google está desenvolvendo sua visão de um superassistente artificial que pode editar vídeos melhor que você. E isso não é brincadeira. Esta é a edição desta semana em inteligência artificial – edição 15.
#15 esta semana em inteligência artificial:
Meta e o desastre do Llama 4
Llama 4 deveria ser a joia da coroa do desenvolvimento de IA da Meta, mas o resultado final é uma decepção. O modelo que foi apresentado ao público não é aquele que participou de benchmarks e impressionou. Isso foi notado pela primeira vez pelo professor Ethan Mollick, que confirmou que os resultados do modelo publicado no LLM-arena não correspondiam aos alcançados pela versão pública. (fonte: x.com/ethanmollick)
Publicações surgiram no Reddit de ex-funcionários da Meta que agora trabalham na OpenAI, distanciando-se abertamente do Llama 4. Um deles escreveu em seu perfil: "Llama 2 e Llama 3, Llama 4? Não tenho nada a ver com isso." (fonte: reddit.com)
Além disso, surgiram informações de que uma reformulação interna na divisão de IA da Meta foi desencadeada quando eles foram ultrapassados em benchmarks por um modelo chinês desconhecido e de baixo orçamento, o DeepSeek V3. Para uma empresa que investe bilhões no desenvolvimento de inteligência artificial, isso não é pouca coisa.
Claude Max e previsões sobre Claude 4
Anthropic surpreende com novo serviço esta semana Claude Max – um plano de assinatura para usuários exigentes, oferecendo cota de interação de cinco a vinte vezes maior, acesso prioritário aos modelos e recursos mais recentes. (fonte: anthropic.com)
Enquanto isso, Jared Kaplan, cientista-chefe da Anthropic, anunciou que veremos Claude 4 nos próximos seis meses. Segundo ele, o desenvolvimento de modelos de IA está acontecendo mais rápido que o desenvolvimento de hardware, principalmente devido ao pós-treinamento acelerado e às melhorias no aprendizado por reforço. Uma das notícias sutis, mas importantes, desta semana sobre inteligência artificial.
OpenAI finalmente anuncia modelo de código aberto
Após anos de críticas por falta de transparência e distanciamento de sua missão original, Sam Altman anunciou que a OpenAI lançará em breve um modelo de código aberto que superará todas as alternativas existentes. (fonte: openai.com)
Além disso, o ChatGPT agora tem memória de longo prazo, o que permite que interações passadas sejam usadas para personalizar experiências e permite que o usuário tenha IA monitorando ativamente seus objetivos e os guiando através de incompatibilidades em padrões de pensamento.
Mas nem tudo são flores: testes de segurança abreviados na OpenAI
Financial Times revelou que a OpenAI reduziu significativamente o tempo e o escopo dos testes de segurança de seus modelos. Em vez de várias semanas, agora eles têm apenas alguns dias, levantando preocupações de que modelos possam ser lançados publicamente com vulnerabilidades não descobertas. Um ex-engenheiro de testes disse ao FT que os perigos do GPT-4 foram descobertos apenas dois meses após seu lançamento. (fonte: ft.com)
Dizem que a razão é simples: pressão competitiva. As empresas estão correndo para introduzir novos modelos para não ficar para trás. E embora essas sejam as ferramentas mais poderosas do nosso tempo, a segurança está sendo deixada de lado.
DeepCode 14B: um concorrente de código aberto do OpenAI
DeepSeek e Aentica apresentaram DeepCode 14B, um modelo de código aberto para geração de código de software. Com apenas 14 bilhões de parâmetros, ele alcança resultados comparáveis aos modelos comerciais GPT-3.5. Eles o treinaram com mais de 24.000 tarefas exclusivas e usaram o método GRPO+, que recompensa o modelo apenas por uma solução perfeita. (fonte: github.com/aentica)
BrowseComp: Nova Liga para Agentes de IA
A OpenAI introduziu Navegar Comp, uma referência para agentes de IA que podem navegar eficientemente na web e pesquisar informações complexas. Ele é destinado a testar modelos que precisam navegar por dezenas de páginas para chegar às informações relevantes. (fonte: github.com/openai/simple-evals)
O Google lidera o jogo
Google revela planos de fusão Gêmeos e Vio modelos – compreensão textual, de imagem e áudio com geração de vídeo. O objetivo deles é criar um superassistente multimodal que entenda o mundo como nós. (fonte: googlecloudnext.com)
Além disso, o Google introduziu uma nova geração de chips de IA TPU Ironwood, que é 3600 vezes mais potente que a primeira geração de 2018. Isso permite que eles treinem modelos maiores e os executem mais rapidamente sem depender da Nvidia.
O Microsoft Copilot está se tornando um concorrente sério
da Microsoft Co-piloto Ele tem uma interface redesenhada, recursos de busca de apartamentos, ajuda para escrever cartas e até recursos de edição de imagens. Ele atua como um assistente pessoal em tempo real, com acesso à tela e ao contexto. (fonte: microsoft.com)
Mustafa Suleyman, chefe da Microsoft AI, acredita que a AGI poderá estar aqui dentro de cinco anos, embora reconheça que problemas básicos — como alucinações e má execução de instruções — ainda não foram resolvidos.
Midjourney v7: imagens impressionantes, mas ainda sem texto
A Midjourney lançou a sétima geração de seu modelo de imagem, que impressiona pelo hiperrealismo. No entanto, a geração de texto ainda está muito atrasada, como eles próprios admitem: os usuários quase não a utilizam, então não é uma prioridade. (fonte: midjourney.com)
Robô Neo trabalhando ao vivo
Plataforma robótica 1X Neo demonstrou que consegue executar tarefas reais de forma independente. Isto não é apenas mais um golpe de relações públicas; o robô se movia, limpava e operava sem scripts. Seu design inclui músculos artificiais e mobilidade que lhe permitem coexistir com segurança com os humanos. (fonte: 1x.tech)
Cientista de IA escreve o primeiro artigo profissional
O Sakana AI Labs anunciou que seu modelo escreveu o primeiro artigo científico que passou pela revisão por pares em um workshop. A IA formulou uma hipótese, analisou os dados e tirou conclusões – sem assistência humana. (fonte: sakana.ai)
Conclusão
Em apenas uma semana, vimos o colapso da visão da Meta, a aceleração de modelos de código aberto, tendências perigosas em testes de segurança e uma nova geração de agentes multimodais. O mundo da inteligência artificial não está apenas evoluindo rapidamente – está evoluindo em uma direção que parecia ficção científica há apenas um ano.
A próxima semana promete ainda mais. Se você perder alguma coisa, estaremos aqui. Toda segunda-feira.