Saltar para o conteúdo principal
Versão: 1.0.0

Stockbot

Stockbot é um chatbot de IA extremamente rápido que responde com gráficos de ações interativos ao vivo, finanças, notícias, screeners e muito mais. Você pode configurar um nó Gaia como o back-end do LLM.

Observe que o Stockbot utiliza a chamada de função para chamar a API externa. Terá de utilizar o modelo que suporta a chamada de função, como o llama-3.1-8b.

Pré-requisitos

É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode

Neste tutorial, usaremos um nó Llama3 público com suporte a chamadas de função.

AtributoValor
URL do ponto de extremidade da APIhttps://llamatool.us.gaianet.network/v1
Nome do modelolhama
CHAVE APIgaia

Executar o agente

Primeiro, precisamos de obter o código-fonte do Stockbot bifurcado.

git clone https://github.com/JYC0413/stockbot-on-groq.git
cd stockbot-on-groq

Em seguida, configure o .env ficheiro.

cp .env.example .env.local

Aqui é necessário configurar quatro parâmetros.

  • LLAMAEDGE_BASE_URL: URL para o URL de base da API LLM.
  • LLAMAEDGE_MODEL_NAME: Nome do modelo a utilizar.
  • LLAMAEDGE_API_KEY: Chave API para aceder aos serviços LLM.

Em seguida, precisamos de instalar as dependências necessárias.

npm install

De seguida, vamos executar a aplicação localmente.

npm run dev

Por último, pode abrir o sítio http://localhost:3000 e fazer perguntas relacionadas com as acções.