Saltar para o conteúdo principal
Versão: 1.0.0

Conversa RAG FlowiseAI

O FlowiseAI é uma ferramenta de baixo código para desenvolvedores criarem fluxos de orquestração LLM personalizados e agentes de IA. É possível configurar a ferramenta FlowiseAI para usar os nós Gaia como provedores de serviços LLM.

Pré-requisitos

É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode

Neste tutorial, utilizaremos nós públicos para alimentar o plug-in Continue.

Tipo de modeloURL de base da APINome do modelo
Conversahttps://llama.us.gaianet.network/v1lhama
Incorporaçãohttps://llama.us.gaianet.network/v1nómico

Inicie um servidor FlowiseAI

Siga o guia FlowiseAI para instalar o Flowise localmente

npm install -g fluxo
npx flowise iniciar

Após a execução bem sucedida, pode abrir http://localhost:3000 para verificar a ferramenta Flowise AI.

Criar um chatbot QnA para documentos

O FlowiseAI permite-lhe configurar visualmente todos os componentes do fluxo de trabalho de um agente de IA. Se é novo no FlowiseAI, recomenda-se a utilização de um modelo de início rápido. De facto, existem muitos modelos para o OpenAI no mercado Flowise. Tudo o que precisamos de fazer é substituir o componente ChatOpenAI pelo componente ChatLocalAI.

Tomemos como exemplo o Flowise Docs QnA. Você pode criar um chatbot QnA com base nos seus documentos. Neste exemplo, gostaríamos de conversar com um conjunto de documentos em um repositório do GitHub. O modelo padrão foi criado com o OpenAI e agora vamos alterá-lo para usar um LLM de código aberto em um nó Gaia.

Obter omodelo de QnA do Flowise Docs

Clique em Marketplaces no separador da esquerda para ver todos os modelos. O modelo Flowise Docs QnA que vamos utilizar é o primeiro.

Em seguida, clique no botão Utilizar este modelo no canto superior esquerdo para abrir o editor visual.

Ligar a API do modelo de chat

Terá de eliminar o componente ChatOpenAI e clicar no botão + para procurar ChatLocalAI e, em seguida, arrastar o ChatLocalAI para o ecrã.

Em seguida, é necessário introduzir

  • o URL de base do nó Gaia https://llama.us.gaianet.network/v1
  • o nome do modelo lhama

Em seguida, ligue o componente ChatLocalAI ao campo Modelo de chat no Cadeia de controlo de qualidade da recuperação de conversação componente.

Ligar a API do modelo de incorporação

O modelo predefinido utiliza o componente OpenAI Embeddings para criar embeddings para os seus documentos. Temos de substituir o componente OpenAI Embeddings pelo componente LocalAI Embeddings.

  • Utilizar o URL de base do nó Gaia https://llama.us.gaianet.network/v1 no campo Caminho de base.
  • Introduzir o nome do modelo nomic-embed-text-v1.5.f16 no campo Nome do modelo.

Em seguida, ligar o Embeddings de IA local com o campo incorporação no Armazenamento vetorial na memória componente.

Configurar os seus documentos

Em seguida, vamos analisar o componente GitHub para conectar o aplicativo de bate-papo aos nossos documentos no GitHub. Você precisará colocar o link do GitHub dos seus documentos no campo Ligação Repo campo. Por exemplo, pode colocar a hiperligação para os documentos do GaiaNet: https://github.com/GaiaNet-AI/docs/tree/main/docs.

Experimente

Pode enviar uma pergunta como "Como instalar um nó GaiaNet" depois de guardar o fluxo de conversação atual.

Obterá a resposta com base nos documentos da GaiaNet, que são mais exactos.

Mais exemplos

Há muitos exemplos no mercado da Flowise. Para construir um agente Flowise baseado no GaiaNet, basta substituir o componente Chat OpenAI e OpenAI Embeddings pelo URL de base do GaiaNet.