LLaMA 3.2
LLaMA 3.2 (Large Language Model Application 3.2) é a mais nova família de LLMs do Facebook/Meta. Entre suas muitas características, uma das mais importantes é o fato deles serem abertos para uso (mas com restrições). Como essa vantagem, qualquer pessoa pode baixar, personalizar, ajustar ou criar novos aplicativos sobre a família de modelos da Meta. Existem modelos de vários tamanhos e certamente um deles pode ser ideal para seus projetos. A família de modelos LLaMA 3.2 tem tamanhos que variam de 1B até 405B, permitindo diversos casos de uso e aplicações.
LLM multimodal
Além dos tamanhos, o LLaMA 3.2 tem outras novidades. Lançada no mês passado, a nova família traz entre suas inovações alguns modelos multimodais. Estes modelos foram projetados para processar não apenas dados de texto, mas também imagens, áudios e outras formas de conteúdo multimídia. Portanto, além de gerar textos com base em prompts de entrada, o Llama 3.2 pode gerar e interpretar imagens. Ele também pode processar e manipular arquivos de áudio, o que o torna um recurso valioso para criação de músicas, reconhecimento de fala e outras tarefas relacionadas.
Embora o LLaMA 3.2 seja uma ferramenta incrivelmente poderosa, sua complexidade pode ser intimidante para iniciantes. É por isso que um de curso gratuito pode fornecer uma boa ajuda para quem deseja usar o novo LLM multimodal. O curso em questão é oferecido pela plataforma DeepLearning.ai do Andrew Ng. Ele será ministrado por Amit Sangani, Diretor Sênior de Engenharia da Meta. Este não é um curso sobre prompts para o público geral. Na verdade, ele é um curso para quem deseja aprender a usar o LLaMA para desenvolvimento. Portanto, seu foco varia desde como chamar ferramentas personalizadas até a multimodalidade e a nova ferramenta Llama stack.
O curso
O curso aborda vários tópicos, incluindo:
Detalhes sobre os novos modelos, como eles foram treinados e suas características.
Como criar prompts multimodais com o Llama.
Como usar diferentes funções – sistema, usuário, assistente, ipython – na família Llama 3.1 e 3.2 e o formatos de prompt que identificam essas funções.
Aprenda como o Llama usa o tokenizador tiktoken.
Entenda como solicitar para o Llama chamar ferramentas integradas e personalizadas.
Conheça a nova ferramenta Llama stack.
Para quem se interessou, o curso é ministrado em inglês, tem duração de 1 hora e é indicado para todos que possuem conhecimentos básicos de Python.