Introdução
O surgimento de grandes modelos de linguagem (LLMs) transformou o cenário da criação de conteúdos. Chatbots inteligentes como Gemini, Perplexity e ChatGPT são ferramentas que oferecem oportunidades sem precedentes para criar textos envolventes e impactantes. No entanto, muitas pessoas ainda têm dificuldades para entender como aproveitar efetivamente capacidades. Por isso, neste post, abordaremos dicas para quem quer usar as inteligências artificiais (IAs) do momento e obter textos com maior impacto.
Prompts e LLMs
Chatbots como ChatGPT e Gemini são, em sua essência, LLMs. Os LLMs são redes neurais avançadas que, em linhas gerais, recebem entradas de textos e geram textos como saídas. Hoje, existem também vários LLMs multimodais que trabalham com outros tipos de arquivos como imagens e vídeos. Mas todos esses modelos têm em comum a capacidade de receber entradas de texto na forma de linguagem natural. Ou seja, eles “entendem” solicitações e se comunicam numa linguagem cotidiana.
Entrada de prompts do Gemini: basta escrever suas solicitações e o modelo gerará um texto de acordo.
Prompts são os textos que usamos como entradas para um LLM. Geralmente, eles consistem em solicitações como perguntas ou instruções para o modelo gerar uma saída.
Escrever bons prompts significa saber usar as restrições e especificações adequadas para alinhar um LLM de acordo com nossas intenções. Portanto, a escrita de prompts é mais do que apenas inserir texto em um LLM. Ela envolve um mergulho nas complexidades da geração de linguagem, arquitetura de modelos e vieses cognitivos. Ao entender esses princípios fundamentais, você aprimorará sua capacidade para desbloquear o verdadeiro potencial generativo dos LLMs.
Arquitetura geral de uma aplicação com um LLM (fonte).
Prompts e a arquitetura dos LLMs
A elaboração de prompts eficazes é uma tarefa diferenciada. Ela requer a compreensão dos processos de geração da linguagem, vieses cognitivos e contexto no âmbito dos LLMs. O núcleo de qualquer modelo de linguagem está em sua arquitetura.
Exemplo de arquitetura de um LLM (fonte).
Os LLMs usados para geração de texto de hoje possuem estruturas amplamente enraizadas em redes neurais complexas. Os designs baseados em transformers são a base dos LLMs modernos. Eles usam mecanismos como a atenção para simular processos cognitivos inspirados nos padrões de pensamento humano. Os mecanismos de atenção permitem que os LLMs pesem a importância de diferentes palavras e frases durante a geração de textos. Acionar esses mecanismos é uma das principais formas de produzir textos com diferentes níveis de qualidade, inventividade e personalização. Portanto, escrever bons prompts envolve direcionar a atenção dos modelos para os aspectos exatos que queremos. Veja algumas dicas de como alcançar esse alinhamento.
A importância do contexto
Definir com precisão o contexto no qual a geração de um texto deve ocorrer é fundamental. Suponha que você deseja que o modelo escreva um texto sobre inteligência artificial. Sem especificar o contexto, ele escreverá um texto genérico. A especificação do contexto envolve, por exemplo, solicitar ao modelo para agir como um determinado personagem. Podemos solicitar que ele aja como um especialista em IA para escrever sobre ela, ou um especialista em marketing, ou um professor do ensino básico, etc. Cada contexto determinará uma qualidade diferente de geração de texto.
Conscientização do modelo sobre o público-alvo
Adaptar seus prompts a públicos específicos é essencial para maximizar o engajamento e a relevância dos textos gerados. Na prática, isso significa inserir no prompt, além do contexto, o público-alvo do texto que será gerado.
Especificidade e precisão de criação
Os prompts para LLMs devem ir além do mero textual. Instruções claras e específicas melhoram significativamente o desempenho desses modelos, reduzindo a ambiguidade. Portanto, evite instruções genéricas como “escreva um texto inteligente”. Opte por instruções concretas como “escreva um texto com três exemplos de aplicações reais”.
Restrinja o modelo
LLMs precisam de instruções com restrições claras. Especifique o tamanho aproximado do texto que deseja em número de palavras. Informe o que o texto não deve conter (exemplos, dados numéricos, casos de uso, etc). Use linguagem direta e sem ambiguidade (por exemplo: escreva um texto de 500 palavras e não use frases com mais de 20 palavras).
Use recursos extras
O uso de material complementar, como textos, códigos, figuras e gráficos, é uma forma excelente de fornecer a um LLM um alinhamento adequado.
Interaja com o modelo
LLMs como ChatGPT e Gemini dominam a linguagem natural. Ou seja, eles conseguem se comunicar com você como uma “pessoa” e vice-versa. Uma das vantagens dessa capacidade é que você pode discutir com o modelo sobre um texto que ele gerou e solicitar que ele o modifique. Portanto, não se limite a fazer uma solicitação pontual, critique o texto gerado e solicite alterações quando necessário.
Use outro modelo para interagir com o primeiro
Use um LLM para criticar o texto gerado por outro. Depois, use as críticas feitas para direcionar o modelo na modificação do texto. Esse exercício pode ser feito com apenas um LLM agindo ora como gerador de texto e ora como crítico do texto gerado. Porém, quando ele é feito com mais de um, os resultados costumam ser melhores.
Use exemplos
Se você tem textos que quer usar como base para um LLM seguir o estilo, tamanho, ou qualquer outra característica, use-os especificando claramente o que deve ser seguido.
Explore os modelos
Modifique seus prompts para avaliar suas eficácias e refiná-los iterativamente com base nas respostas obtidas. Teste os prompts com diferentes LLMs para verificar qual gera os textos mais alinhados com o que você deseja.
Conclusões
O surgimento dos LLMs revolucionou a criação de conteúdo, mas muitas pessoas se veem lutando para criar prompts eficazes. A escrita de prompts não se trata simplesmente de alimentar um modelo de IA com textos. LLMs são ferramentas poderosas, mas suas capacidades só se manifestam quando sabemos usá-los bem. Para gerar conteúdos de alto nível, o alinhamento dos mecanismos de atenção dos modelos é fundamental.