Assistente de codificação com IA: Continuar
O Continue é o principal assistente de código de IA de código aberto. É um plug-in semelhante a um copiloto para VSCode e JetBrains para fornecer experiências personalizadas de preenchimento automático e bate-papo dentro esses IDEs. É possível configurá-lo facilmente para usar os nós Gaia como back-ends LLM. De facto, pode escolher diferentes nós Gaia diferentes para
- O modelo de autocompletar para tarefas de codificação.
- O modelo de chat para compreender e discutir código.
- O modelo de incorporação para fornecer contexto de conversação com base em ficheiros locais.
Pré-requisitos
É necessário um nó Gaia preparado para fornecer serviços LLM através de um URL público. Pode
Neste tutorial, utilizaremos nós públicos para alimentar o plug-in Continue.
Tipo de modelo | URL de base da API | Nome do modelo |
---|---|---|
Conversa | https://gemma.us.gaianet.network/v1/ | gema |
Incorporação | https://gemma.us.gaianet.network/v1/ | nómico |
Autocompletamento | https://codestral.us.gaianet.network/v1/ | codestral |
É importante notar que o Continue exige que o ponto de extremidade da API inclua um
/
no final.
Instalar Continuar
Carregue esta ligação para instalar o plug-in do IDE Continue.
Ele abrirá seu VSCode quando você clicar no botão Instalar na página da Web. Quando for
solicitado a configurar o Continue, basta clicar em Ignorar e concluir a instalação sem selecionar um modelo local.
Configurar Continuar
Clique no ícone de engrenagem na barra de ferramentas para carregar o config.json
para o plugin Continue. O ficheiro está localizado
no seu próprio diretório pessoal $HOME/.continue/config.json
.
Agora é possível alterar o config.json
da seguinte forma.
Pede ao plugin Continue que utilize diferentes nós e modelos públicos do Gaia para
chat, autocompletar código e embeddings.
{
"models": [
{
"model": "gemma",
"title": "LlamaEdge",
"apiBase": "https://gemma.us.gaianet.network/v1/",
"provider": "openai"
}
],
"tabAutocompleteModel": {
"title": "Autocomplete",
"apiBase": "https://codestral.us.gaianet.network/v1/",
"model": "codestral",
"provider": "openai"
},
"embeddingsProvider": {
"provider": "openai",
"model": "nomic-embed",
"apiBase": "https://gemma.us.gaianet.network/v1/"
},
"customCommands": [
{
"name": "test",
"prompt": "{{{ input }}}\n\nWrite a comprehensive set of unit tests for the selected code. It should setup, run tests that check for correctness including important edge cases, and teardown. Ensure that the tests are complete and sophisticated. Give the tests just as chat output, don't edit any file.",
"description": "Write unit tests for highlighted code"
}
],
"allowAnonymousTelemetry": true
}
Guardar o config.json
e já está!
Utilizar o plugin
A captura de tela a seguir mostra como é possível conversar com uma mensagem de erro dentro do IDE.