Saltar para o conteúdo principal
Versão: 2.0.0

Assistente de codificação com IA: Continuar

O Continue é o principal assistente de código de IA de código aberto.

É um plugin do tipo copiloto para VSCode e JetBrains para fornecer experiências personalizadas de autocompletar e chat dentro desses IDEs. Pode configurá-lo facilmente para utilizar nós Gaia como backends LLM. De facto, pode escolher diferentes nós Gaia para

  • O modelo de autocompletar para tarefas de codificação.
  • O modelo de chat para compreender e discutir código.
  • O modelo de incorporação para fornecer contexto de conversação com base em ficheiros locais.

Pré-requisitos

É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode

Neste tutorial, utilizaremos nós públicos para alimentar o plug-in Continue.

Tipo de modeloURL de base da APINome do modelo
Conversahttps://llama8b.gaia.domains/v1/lhama
Incorporaçãohttps://llama8b.gaia.domains/v1/nómico
Autocompletamentohttps://codestral.us.gaianet.network/v1/codestral

É importante notar que o Continue exige que o ponto de extremidade da API inclua um / no final.

Instalar Continuar

Carregue esta ligação para instalar o plug-in do IDE Continue.
Ele abrirá seu VSCode quando você clicar no botão Instalar na página da Web. Quando for solicitado a configurar o Continue, basta clicar em Ignorar e concluir a instalação sem selecionar um modelo local.

Configurar Continuar

Clique no ícone de engrenagem na barra de ferramentas para carregar o config.json para o plugin Continue. O ficheiro está localizado no seu próprio diretório pessoal $HOME/.continue/config.json. Agora é possível alterar o config.json da seguinte forma. Pede ao plugin Continue que utilize diferentes nós e modelos públicos do Gaia para chat, autocompletar código e embeddings.

{
"models": [
{
"model": "llama",
"title": "LlamaEdge",
"apiBase": "https://llama8b.gaia.domains/v1/",
"provider": "openai"
}
],
"tabAutocompleteModel": {
"title": "Autocomplete",
"apiBase": "https://codestral.us.gaianet.network/v1/",
"model": "codestral",
"provider": "openai"
},
"embeddingsProvider": {
"provider": "openai",
"model": "nomic-embed",
"apiBase": "https://llama8b.gaia.domains/v1/"
},
"customCommands": [
{
"name": "test",
"prompt": "{{{ input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
"description": "Write unit tests for highlighted code"
}
],
"allowAnonymousTelemetry": true
}

Guardar o config.json e já está!

Utilizar o plugin

A captura de tela a seguir mostra como é possível conversar com uma mensagem de erro dentro do IDE.