Search
Close this search box.
Gemini 1.5: acesse a API do melhor LLM do Google com Python
Gemini 1.5 API com Python

Posts Relacionados:

Gemini 1.5 é o novo lançamento oficial do Google em termos de LLM. Aprenda a acessar gratuitamente sua API com Python para criar aplicativos inteligentes.

Receba nossa newsletter

Gemini 1.5

Gemini é o mais atual LLM do Google. A primeira versão estreou no final do ano passado, mas versões mais recentes já foram lançadas nesse ano. A última atualização, Gemini 1.5, está disponível diretamente por meio de API.

Ela consiste em vários modelos, incluindo versões multimodais. Neste post, mostraremos como é simples acessá-los.

Gemini API: ótima opção para desenvolvedores

Além de fácil, a API do Gemini 1.5 tem uma enorme vantagem: ela tem uma quantidade grande de tokens gratuitos. Com isso, ela se torna uma das opções mais atraentes para desenvolvedores que precisam testar ideias e projetos antes de embarcar em opções com custos iniciais elevados.

Entre suas opções extremamente atraentes estão 15 chamadas por minuto para a API e até 1500 chamadas por dia. E isso é oferecido gratuitamente. Alem da quatidade generosa de chamadas, a Gemini API conta com baixa taxa de latência e janela de contexto impressionante.

Gemini API

Como acessar o Gemini 1.5 através de API

Para acessar o Gemini 1.5 através de API o processo é simples. Primeiro, instale o pacote de IA generativa do Google para Python:

				
					pip install -q -U google-generativeai
				
			

Depois, obtenha uma chave nesse link.

Com esses dois requisitos resolvidos, o acesso à API pode ser feito via códigos Python.

Acesse o Gemini 1.5 com Python

Num código Python, importe o pacote necessário:

				
					
import google.generativeai as genai
				
			

Depois, informe a sua chave. Segundo as recomendações oficiais, para garantir maior segurança, ao invés de colar diretamente a chave de API no código, ela deve ser definida num arquivo .env e acessada no código como variável de ambiente. Uma forma de fazer isso é com o auxílio do pacote dotenv. Ele precisa ser instalado:

				
					pip install python-dotenv
				
			

Para quem deseja usá-lo, crie um arquivo .env (esse é o nome completo do arquivo). Nele, insira sua chave, como mostrado abaixo:

				
					GOOGLE_API_KEY = "SUA CHAVE"
				
			

No código Python, acesse a chave:

				
					import os
from dotenv import load_dotenv
load_dotenv()

GOOGLE_API_KEY = os.getenv('GOOGLE_API_KEY')
				
			

Para quem não deseja usar o pacote dotenv nem definir a chave de API como variável de ambiente, a opção (insegura e não recomendada) é defini-la direto no código Python (GOOGLE_API_KEY=”SUA CHAVE”).

Independentemente de como você definir sua chave de API, ela precisa ser passada como parâmetro de configuração:

				
					genai.configure(api_key = GOOGLE_API_KEY)
				
			

Alimente o LLM com Prompts

Em seguida, defina o modelo Gemini 1.5 que deseja usar. A lista de opções pode ser encontrada no AI Studio do Google. Usaremos o excelente Gemini 1.5 Flash:

				
					model = genai.GenerativeModel("gemini-1.5-flash")
				
			

O passo seguinte consiste em alimentar o modelo com prompts:

				
					
response = model.generate_content("SEU PROMPT AQUI")
print((response._result.candidates[0].content.parts[0].text))
				
			

No trecho acima, após definir o modelo, o alimentamos diretamente com um prompt e imprimimos a resposta. A resposta já é impressa com a remoção de informações de controle adicionais. Se você quiser mantê-las, basta imprimir assim: response.candidates[0].

Com esse código super simples, você acessa o Gemini 1.5 através de sua API.

Prompts com configurações adicionais

O exemplo de interação com o LLM mostrado acima é provavelmente a forma mais simples de obter uma resposta. Mas, como é comum com LLMs, o envio de prompts ao modelo pode incluir vários parâmetros de configuração como temperatura (controla a randomicidade das respostas), stop_sequences, max_output_tokens. Voce pode aprender mais sobre esses parâmetros com esse curso gratuito.  Para usar parâmetros de configuração com os prompts, um exemplo de código é mostrado abaixo:

				
					response = model.generate_content(
    "INSIRA SEU PROMPT AQUI",
    generation_config=genai.types.GenerationConfig(
        candidate_count=1,
        stop_sequences=["x"],
        max_output_tokens=40,
        temperature=1.0,
    ),
)
				
			

Varie os parâmetros e explore as melhores configurações para seus projetos. Para conhecer melhor sobre as possibilidades do Gemini 1.5, uma fonte é a própria documentação oficial que pode ser consultada aqui. O site do Deep Mind também traz informações interessantes sobre os LLMs Gemini 1.5 para quem quiser conhecer mais detalhes.

Imagem com IA Generativa – Dia 199

IA generativa img 199

Arte com IA generativa: imagem do dia

Todos os dias, postamos um exemplo de imagem artística gerada com inteligência artificial.

Tutoriais

Postagens Mais Recentes

Outras Postagens Que Podem Interessar

Veja
Mais

Fique em contato

Se inscreva para receber nossa newsletter com novidades.

aprendiz artificial