Saltar para o conteúdo principal
Versão: 2.0.0

LlamaCloud

LlamaParse é uma API criada pelo LlamaIndex para analisar e representar ficheiros de forma eficiente para uma recuperação eficiente e aumento de contexto utilizando as estruturas do LlamaIndex. LlamaParse pode suportar diferentes tipos de ficheiros, como pdf, doc, .ppt, e outros formatos.

Pode configurar o LlamaParse para utilizar o nó Gaia como backend LLM, pelo que pode criar localmente uma aplicação RAG baseada nos seus ficheiros PDF.

Pré-requisitos

É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode

Neste tutorial, utilizaremos nós públicos para alimentar o plug-in Continue.

Tipo de modeloURL de base da APINome do modelo
Conversahttps://llama8b.gaia.domains/v1lhama
Incorporaçãohttps://llama8b.gaia.domains/v1nómico-embutido

Passos

Utilizaremos um repositório GitHub de código aberto, chamado llamaparse-integraçãopara tornar o LlamaPase fácil de utilizar. O llamaparse-integração suportes de aplicação

  • Vários formatos de ficheiro, como .pdf e .doc,
  • Vários ficheiros

Primeiro, precisamos de ter o código fonte no seu terminal.

git clone https://github.com/alabulei1/llamaparse-integration.git
cd llamaparse-integration

Em seguida, instale os pacotes de modo necessários.

npm install llamaindex
npm install dotenv

Iniciar uma instância Qdant. A instância Qdrant destina-se a armazenar os embeddings.

mkdir qdrant_storage
mkdir qdrant_snapshots

nohup docker run -d -p 6333:6333 -p 6334:6334 \
-v $(pwd)/qdrant_storage:/qdrant/storage:z \
-v $(pwd)/qdrant_snapshots:/qdrant/snapshots:z \
qdrant/qdrant

Em seguida, será necessário configurar as definições do modelo LLM. Podemos configurar a definição do modelo na secção .env ficheiro.

OPENAI_BASE_URL=https://llama8b.gaia.domains/v1/
OPENAI_API_KEY=gaianet
LLAMAEDGE_CHAT_MODEL=llama
LLAMAEDGE_EMBEDDING_MODEL=nomic
LLAMA_CLOUD_API_KEY=Sua_própria_KEY
FILE_PATH=
FILE_DIR=./pdf_dir
COLLECTION_NAME=default
QDRANT_URL=http://127.0.0.1:6333
SAVE_MARKDOWN_PATH=output.md

Eis algumas notas sobre o .env configuração:

  • Pode obter a chave LlamaCloud em https://cloud.llamaindex.ai
  • Poderá ser necessário efetuar alterações de acordo com a definição do modelo e o caminho do ficheiro.
  • Se colocar o nome do ficheiro no campo FILE_PATH=o programa criará uma aplicação RAG com este único ficheiro pdf.
  • Se o FILE_PATH= estiver vazio, o programa irá construir uma aplicação RAG com os ficheiros sob o FILE_DIR=./pdf_dir. É possível incluir vários ficheiros na pasta.

Em seguida, podemos executar o programa para criar uma aplicação RAG com base no ficheiro PDF

npx tsx pdfRender.ts

Depois de ser executado com êxito, pode enviar uma consulta através da linha de comandos.