Openai
Mesmo quando o OpenAI continua se apegando à sua afirmação de que o único caminho para a AGI é através de grandes gastos financeiros e de energia, os pesquisadores independentes estão alavancando tecnologias de código aberto para corresponder ao desempenho de seus modelos mais poderosos-e o fazem por uma fração do preço.
Na sexta-feira passada, uma equipe unificada da Universidade de Stanford e da Universidade de Washington anunciou que haviam treinado um modelo de idioma grande de matemática e codificação que se apresenta, bem como os modelos de raciocínio O1 e Deepseek da OpenAi e do Deepseek. Custou apenas US $ 50 em créditos de computação em nuvem para construir. A equipe supostamente usou um modelo básico pronta para uso, depois destilou o Modelo Experimental Gemini 2.0 Flash Thinking nele do Google. O processo de destilação do AIS envolve extrair as informações relevantes para concluir uma tarefa específica de um modelo de IA maior e transferi -las para uma menor.
Além do mais, na terça -feira, pesquisadores do Hugging Face lançaram um concorrente para a pesquisa profunda do OpenAI e as ferramentas de pesquisa profundas do Google Gemini (também), apelidadas de pesquisas profundas, que eles desenvolveram em apenas 24 horas. “Embora os LLMs poderosos agora estejam disponíveis gratuitamente em código aberto, o OpenAI não revelou muito sobre a estrutura Agentic subjacente à pesquisa profunda”, escreveu o Hugging Face em seu post de anúncio. “Então decidimos embarcar em uma missão de 24 horas para reproduzir seus resultados e de código aberto a estrutura necessária ao longo do caminho!” Termo, custa cerca de US $ 20 em créditos de computação em nuvem e exigiria menos de 30 minutos para treinar.
O modelo de abraço de rosto posteriormente marcou uma precisão de 55% no benchmark General AI Assistentes (GAIA), que é usado para testar as capacidades dos sistemas agênticos de IA. Em comparação, a pesquisa profunda do OpenAI marcou entre 67 e 73% de precisão, dependendo das metodologias de resposta. É verdade que o modelo de 24 horas não funciona tão bem quanto a oferta da Openai, mas também não levou bilhões de dólares e a capacidade de geração de energia de uma nação européia de tamanho médio para treinar.
Esses esforços seguem as notícias de janeiro de que uma equipe da Universidade da Califórnia, o Sky Computing Lab de Berkeley, conseguiu treinar seu modelo de raciocínio Sky T1 por cerca de US $ 450 em créditos de computação em nuvem. O modelo Sky-T1-32B-View da equipe provou ser o igual de liberação de modelo de raciocínio da pré-visualização O1. À medida que mais desses concorrentes de código aberto para o domínio da indústria da OpenAI surgem, sua mera existência questiona se o plano da empresa de gastar meio trilhão de dólares para construir data centers e instalações de produção de energia é realmente a resposta.