modelo o1
Se lembra do modelo Q da OpenAI? Acabou de ser lançado! Considerado um avanço significativo em inteligência artificial (AI), o novo modelo foi projetado com recursos aprimorados de raciocínio. Segundo as notícias, o modelo o1 representa um passo fundamental para alcançar uma IA com processos de raciocínio mais semelhantes aos humanos.
O LLM o1 faz parte de uma nova série de modelos de IA que priorizam o raciocínio em vez da simples geração de respostas. Os membros da série foram treinados para dar um passo para trás e realmente pensar nas coisas, como um humano faria quando confrontado com um problema difícil. Eles consideram diferentes abordagens, refinam seus pensamentos e até detectam seus próprios erros ao longo do caminho. Esse nível mais profundo de pensamento permite que eles resolvam problemas que os modelos mais antigos não conseguiam resolver.
Os novos modelos se destacam bem em tarefas complexas, com foco nas áreas STEM, como física, química e matemática.
Desempenho surpreendente
Recentemente, mencionamos o desempenho nada brilhante dos LLMs em tarefas complexas relacionadas às ciências em geral. Esse não parece ser um problema para o modelo o1. Ele demonstrou desempenho excepcional em vários benchmarks e se saiu muito melhor do que o GPT-4o. Seu desempenho foi excepcionalmente bom em benchmarks que testam raciocínio e habilidades de resolução de problemas. No American Invitational Mathematics Examination (AIME) 2024, um exame de matemática para os melhores alunos do ensino médio, o1 alcançou uma taxa de precisão de 74% com apenas uma amostra por problema.
Além da matemática, o o1 também demonstrou um desempenho excelente em benchmarks que testam o conhecimento científico, como o GPQA Diamond. Notavelmente, o o1 superou especialistas humanos com doutorado neste teste.
Aprendizado por reforço para capacidades aprimoradas
Estruturalmente, o que se sabe sobre o LLM o1 é que ele foi treinado com aprendizado por reforço. Ela foi utilizada para ensinar o modelo a pensar usando uma cadeia de processos de pensamentos. Isso permite que o1 divida problemas complexos em etapas e refine sua abordagem iterativamente.
Por meio do aprendizado por reforço, o1 aprende a reconhecer e corrigir seus próprios erros. Segundo a OpenAI, o desempenho do o1 melhora consistentemente com mais aprendizado por reforço durante o treinamento. Seu desempenho também melhora com mais tempo gasto pensando durante a resolução de problemas.
Variantes do modelo o1
A OpenAI introduziu duas variantes do modelo o1: o1-preview e o o1-mini. O primeiro foi projetado para tarefas complexas de raciocínio. Ele possui excelente desempenho em codificação e resolução de problemas científicos. O o1-mini é uma versão menor, com tamanho mais próximo a um SLM. Ele é mais rápido e muito mais econômico. Ele foi otimizado para tarefas de codificação. Seu preço é 80% menor que o o1-preview.
Limitações
Apesar de seus recursos avançados, o modelo o1 tem limitações notáveis. A primeira é o custo. O modelo o1 é bem mais caro do que o GPT-4o. Para acessá-lo com API, seus custos de entrada são três vezes maiores e custos de saída quatro vezes maiores.
Além do preço, o modelo o1 tende a ser bem mais lento no processamento de consultas.
O o1 ainda não conta com recursos como navegação na web, upload de arquivos e processamento de imagens. Mas isso deve ser uma limitação temporária.
Onde encontrar
Você pode experimentar os LLMs o1 em nas plataformas da OpenAI. Os usuários do ChatGPT Plus e Team podem acessar o1-preview e o1-mini por meio do seletor de modelos. Os desenvolvedores com acesso ao nível 5 de uso da API podem começar a prototipar com esses modelos. A OpenAI também planeja disponibilizar o o1-mini para todos os usuários do ChatGPT Free em breve.