Saltar para o conteúdo principal
Versão: 2.0.0

Integração da cadeia Langchain

observação

As integrações com a Langchain podem ser efectuadas com Python ou Javascript.

LangChain é uma estrutura para o desenvolvimento de aplicações baseadas em grandes modelos de linguagem (LLM).

Pode configurar a Langchain para utilizar qualquer nó Gaia como backend LLM, de modo a poder construir qualquer agente de IA ou aplicação alimentada por IA que utilize o Gaia para inferências.

Pré-requisitos

É necessário um nó Gaia pronto para fornecer serviços LLM através de um URL público. Pode fazê-lo:

Se estiveres a utilizar um nó público, precisarás de uma chave de API. Gaia oferece 50.000 créditos de API gratuitos para usar com serviços disponíveis, como nós públicos, quando você solicita uma conta de desenvolvedor.

Configuração

  • Configuração do projeto na máquina (JavaScript ou Python)

  • Instalação Langchain:

npm install @langchain/openai @langchain/core dotenv

Integração com Gaia

Para começar a gerir o seu nó Gaia, pode seguir o guia na página Configurar o seu próprio nó para um início rápido.

Neste guia, estaremos a executar o nosso nó Gaia localmente, por isso não precisamos de uma chave API, pode usar uma cadeia como: "Gaia" como um espaço reservado. Criar um .env e armazenar a sua chave API:

GAIANET_API_KEY="Gaia"

As integrações com Langchain e Gaia podem ser feitas com qualquer JavaScript ou Python. Os trechos de código abaixo mostram como é a integração em ambas as linguagens:

import { ChatOpenAI, OpenAI } from "@langchain/openai";
import dotenv from "dotenv";

dotenv.config();

const model = new ChatOpenAI({
configuration: {
apiKey: process.env.GAIANET_API_KEY,
model: "Llama-3-Groq-8B-Tool",
baseURL:
"gaia-node-url/v1",
},
});

const response = await model.invoke("Hello, world!");

console.log(response)

Invocar os modelos Gaia

Uma vez estabelecida a ligação básica, pode começar a utilizar as poderosas funcionalidades da Langchain. Comece por fazer invocações ao modelo.


// ...
const resposta = aguardar modelo.invoke("Olá, mundo!");

consola.log(resposta)

O suporte LangChain também abre integrações com LangGraph e LangSmith.