Microsoft Phi-3
Recentemente, a Microsoft anunciou mais uma família de modelos de inteligência artificial (IA): Microsoft Phi-3. A grande novidade é que os modelos Phi-3 sao compactos, mas super poderosos. Eles prometem oferecer desempenho excepcional de IA para ser usado em diversos aplicativos.
Modelos do Tipo SLM
Microsoft Phi-3 é uma família de modelos de linguagem pequenos (small language models – SLMs). Eles são projetados para a praticidade do mundo real. Os modelos Phi-3 possuem habilidades de raciocínio de alto nível e respostas extremamente rápidas. Ao mesmo tempo, eles são enxutos em requisitos computacionais e bem mais econômicos que os LLMs tradicionais. Apesar disso, os modelos Phi-3 superam modelos do mesmo tamanho e de tamanho maior em uma variedade de benchmarks de linguagem, raciocínio, codificação e matemática.
Tamanhos Pequenos com Muitas Vantagens
A família Phi-3 é composta por modelos com quatro tamanhos diferentes: o Phi-3-mini de tamanho pequeno (3.8 bilhões de parâmetros), o Phi-3-small ligeiramente maior (7 bilhões de parâmetros), o Phi-3-medium de tamanho mediano (14 bilhões de parâmetros) e o inovador Phi-3-vision – um modelo multimodal que integra recursos de linguagem e visão. Em termos de desempenho, o Phi-3-mini se sai melhor do que os modelos com o dobro de seu tamanho. Os modelos Phi-3-small e o Phi-3-medium superam modelos muito maiores, incluindo o Mixtral 8x7B e o GPT-3.5.
Uma das grandes inovações desses modelos está no conjunto de dados usado para treinamento. Ele é composto por dados da web altamente filtrados e dados sintéticos.
Graças aos seus pequenos tamanhos, os modelos Phi-3 podem ser usados em ambientes computacionais de custo menor como celulares. Suas necessidades computacionais mais baixas os tornam uma opção com menor latência para inferências. O tamanho menor dos modelos Microsoft Phi-3 também facilita seus ajustes finos.
Onde encontrá-los?
Os modelos Phi-3 estão disponíveis na IA do Azure (Azure AI Studio) aproveitando a cadeia de ferramentas deploy-eval-finetune. Eles também podem ser encontrados no Ollama para desenvolvedores executarem inferências localmente em seus laptops. Essas maravilhas também estão disponíveis na excelente plataforma da Hugging Face (aqui) e com licença MIT!