"Se um trabalhador quiser fazer bem o seu trabalho, ele deve primeiro afiar suas ferramentas." - Confúcio, "Os Analectos de Confúcio. Lu Linggong"
Primeira página > Programação > API Gemini: o nível gratuito que deixa os desenvolvedores felizes

API Gemini: o nível gratuito que deixa os desenvolvedores felizes

Publicado em 2024-11-24
Navegar:652

GPT é demais, mas não oferece mais uma API com nível gratuito – pelo menos não mais. Felizmente, o Google faz isso, com Gemini API e Studio AI (a versão do ChatGPT do Google).

No momento em que este artigo foi escrito, aqui está o que o nível gratuito da API Gemini oferece:

Gemini API: The Free Tier That Makes Developers Happy

Como você pode ver, isso é mais que suficiente para começar a brincar com a API, então não há desculpa para não integrá-la em nossos projetos.

O guia de início rápido é super direto.

No meu caso, estou usando o Gemini para uma tarefa bastante inútil, mas o objetivo é mostrar como é fácil integrar sua API.

Confira o trecho a seguir, que gera "citações engraçadas" com base em um número de popularidade.

const { GoogleGenerativeAI } = require("@google/generative-ai");

const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY);
const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });

const popularity = 42;

const prompt = `Write a funny quote, under 200 characters, about popularity on a scale from 0 to 100, where 0 is the least popular and 100 is the most. The quote should describe someone at ${popularity}.`;

const result = await model.generateContent(prompt);

console.log(result);

Saída:

Ele tem um sólido 42º lugar na escala de popularidade. Não é exatamente 'legal', mas definitivamente não é 'aquele cara com quem ninguém fala'.

É isso! Algumas coisas a serem observadas:

    Observe como uma variável de ambiente API_KEY é necessária. Você pode obtê-lo no AI Studio assim que sua conta estiver configurada.
  • O modelo selecionado é gemini-1.5-flash. O Studio AI oferece vários modelos, para que você possa experimentar diferentes para encontrar o melhor ajuste.
  • O resto é apenas JavaScript normal, passando um prompt para o método generateContent e registrando o resultado.
Demonstração

Em minha postagem anterior, TensorFlow: From Python to JavaScript, compartilhei uma demonstração que prevê a popularidade de uma conta do Twitter. Fique à vontade para conferir e, se clicar em "Tweetar meu resultado", será gerado um tweet usando o snippet acima.

    IU:

Gemini API: The Free Tier That Makes Developers Happy

    Tweet:

Gemini API: The Free Tier That Makes Developers Happy

Você pode encontrar o código-fonte aqui

Obtenha recurso de código no Studio AI

Além disso, o Google oferece o Studio AI, que é semelhante ao ChatGPT, mas com um recurso interessante: Get Code. Você pode inserir um prompt e, se for o que deseja para o seu serviço, basta clicar no botão e ele fornecerá o código necessário para executar o mesmo prompt a partir do seu próprio código.

    Comando:

Gemini API: The Free Tier That Makes Developers Happy

    Obter código:

Gemini API: The Free Tier That Makes Developers Happy

Escolhendo entre GPT e Gemini para seu projeto

Sou um grande fã do ChatGPT, mas como desenvolvedor, achei o nível gratuito do Studio AI muito útil. Para experimentação, o OpenAI não é muito caro, mas nada supera um nível gratuito. Ambos possuem documentação sólida.

Na minha humilde opinião, o GPT ainda dá respostas melhores do que o Gemini, mas nos estágios iniciais de um projeto, eu escolheria o Gemini e mudaria para o GPT quando a precisão se tornasse crítica e o investimento fizesse sentido.

Enquanto isso, eu seguiria um padrão de proxy, portanto, se a mudança for necessária, será uma tarefa fácil.

Vamos dar uma olhada no seguinte trecho:


const { GoogleGenerativeAI } = require("@google/generative-ai"); função assíncrona getJokeFromGenerativeAI() { const genAI = novo GoogleGenerativeAI(process.env.GEMINI_API_KEY); modelo const = genAI.getGenerativeModel ({ modelo: "gemini-1.5-flash" }); popularidade constante = 42; const prompt = `Escreva uma citação engraçada, com menos de 200 caracteres, sobre popularidade em uma escala de 0 a 100, onde 0 é o menos popular e 100 é o mais. A citação deve descrever alguém em ${popularity}.`; resultado const = aguarda model.generateContent (prompt); resultado de retorno; } //proxy função assíncrona getJoke() { const piada = aguarda getJokeFromGenerativeAI(); piada de retorno; }
const { GoogleGenerativeAI } = require("@google/generative-ai");

async function getJokeFromGenerativeAI() {
  const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY);
  const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });

  const popularity = 42;

  const prompt = `Write a funny quote, under 200 characters, about popularity on a scale from 0 to 100, where 0 is the least popular and 100 is the most. The quote should describe someone at ${popularity}.`;

  const result = await model.generateContent(prompt);
  return result;
}

// proxy
async function getJoke() {
  const joke = await getJokeFromGenerativeAI();

  return joke;
}
Dessa forma, os consumidores podem chamar getJoke() sem se preocupar com o que está acontecendo nos bastidores. Conforme o tempo passa, e digamos que o GPT seja necessário, a mudança se torna simples:


const OpenAI = require("openai"); função assíncrona getJokeFromOpenAI() { const openai = novo OpenAI(); popularidade constante = 42; const prompt = `Escreva uma citação engraçada, com menos de 200 caracteres, sobre popularidade em uma escala de 0 a 100, onde 0 é o menos popular e 100 é o mais. A citação deve descrever alguém em ${popularity}.`; conclusão const = aguarda openai.chat.completions.create({ modelo: "gpt-4o", mensagens: [{ role: "usuário", conteúdo: prompt }], }); retornar conclusão.escolhas[0].message; } //proxy função assíncrona getJoke() { const piada = aguarda getJokeFromOpenAI(); piada de retorno; }
const { GoogleGenerativeAI } = require("@google/generative-ai");

async function getJokeFromGenerativeAI() {
  const genAI = new GoogleGenerativeAI(process.env.GEMINI_API_KEY);
  const model = genAI.getGenerativeModel({ model: "gemini-1.5-flash" });

  const popularity = 42;

  const prompt = `Write a funny quote, under 200 characters, about popularity on a scale from 0 to 100, where 0 is the least popular and 100 is the most. The quote should describe someone at ${popularity}.`;

  const result = await model.generateContent(prompt);
  return result;
}

// proxy
async function getJoke() {
  const joke = await getJokeFromGenerativeAI();

  return joke;
}
Observe como getJoke agora chama o novo método: getJokeFromOpenAI. Como ambos os métodos seguem o mesmo contrato —

ambos retornam uma Promise que se transforma em uma string—os consumidores de getJoke não notarão a mudança e não precisarão atualizar nada.

Documentos OpenAI

Conclusão

Todos os dias, mais aplicativos integram IA, a ponto de os usuários começarem a esperar por isso, assim como esperam sites rápidos e fáceis de usar. Como desenvolvedor, é importante conhecer as opções disponíveis: modelo personalizado, modelo de código aberto e modelo privado, e aproveitá-las a nosso favor. Quem sabe o que vem a seguir, mas seja o que for, certamente será construído sobre os ombros da IA.

Declaração de lançamento Este artigo é reproduzido em: https://dev.to/garciadiazjaime/gemini-api-the-free-tier-that-makes-ovelovelers-happy-28nk?1 Se houver alguma infração, entre em contato com [email protected] para excluí-lo.
Tutorial mais recente Mais>

Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.

Copyright© 2022 湘ICP备2022001581号-3