Stockbot
Stockbot é um chatbot de IA extremamente rápido que responde com gráficos de ações interativos ao vivo, finanças, notícias, screeners e muito mais. Você pode configurar um nó Gaia como o back-end do LLM.
Observe que o Stockbot utiliza a chamada de função para chamar a API externa. Terá de utilizar o modelo que suporta a chamada de função, como o llama-3.1-8b.
Pré-requisitos
É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode
Neste tutorial, usaremos um nó Llama3 público com suporte a chamadas de função.
Atributo | Valor |
---|---|
URL do ponto de extremidade da API | https://llamatool.us.gaianet.network/v1 |
Nome do modelo | lhama |
CHAVE API | gaia |
Executar o agente
Primeiro, precisamos de obter o código-fonte do Stockbot bifurcado.
git clone https://github.com/JYC0413/stockbot-on-groq.git
cd stockbot-on-groq
Em seguida, configure o .env
ficheiro.
cp .env.example .env.local
Aqui é necessário configurar quatro parâmetros.
- LLAMAEDGE_BASE_URL: URL para o URL de base da API LLM.
- LLAMAEDGE_MODEL_NAME: Nome do modelo a utilizar.
- LLAMAEDGE_API_KEY: Chave API para aceder aos serviços LLM.
Em seguida, precisamos de instalar as dependências necessárias.
npm install
De seguida, vamos executar a aplicação localmente.
npm run dev
Por último, pode abrir o sítio http://localhost:3000 e fazer perguntas relacionadas com as acções.