Skillia

Connecter OpenCode

OpenCode est un agent IA pour le terminal, open-source, qui supporte 75+ providers. Tu peux le connecter à ton LiteLLM pour coder avec n'importe quel modèle.

Installer OpenCode

curl -fsSL https://opencode.ai/install | bash

Configurer le provider LiteLLM

Crée un fichier opencode.json à la racine de ton projet (ou dans ~/.config/opencode/) :

{
  "$schema": "https://opencode.ai/config.json",
  "model": "litellm/skillia.dev",
  "provider": {
    "litellm": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "LiteLLM",
      "options": {
        "baseURL": "https://ton-litellm-xxx.vm.elestio.app/v1"
      },
      "models": {
        "skillia.dev": {
          "name": "Gemini 3 Flash (via OpenRouter)",
          "limit": { "context": 1000000, "output": 8192 }
        },
        "claude-sonnet": {
          "name": "Claude Sonnet 4",
          "limit": { "context": 200000, "output": 8192 }
        },
        "gpt-4o": {
          "name": "GPT-4o",
          "limit": { "context": 128000, "output": 4096 }
        }
      }
    }
  }
}

Point critique : les clés dans models (ex: skillia.dev, claude-sonnet) doivent correspondre exactement aux model_name de ta config LiteLLM. Si tu as créé un alias skillia.dev dans le dashboard (comme en leçon 3), c'est ce nom que tu utilises ici.

Connecter les credentials

Lance OpenCode et tape /connect :

$ opencode
> /connect
Provider: LiteLLM
API Key: sk-ta-master-key-ici

Les credentials sont stockées dans ~/.local/share/opencode/auth.json.

Changer de modèle à la volée

> /models

Tu vois tous les modèles de ta config. Tu passes de Gemini Flash à Claude en un clic, sans toucher à ton code.

Vérifier que tout marche

Ouvre un projet et lance OpenCode :

cd mon-projet
opencode

Tape une question. Si tu reçois une réponse, tout est connecté : OpenCode → ton LiteLLM sur Elestio → OpenRouter → le modèle.

Dans la prochaine leçon, on explore les fonctionnalités avancées de LiteLLM.