Mounir RAJI

OpenClaw 3.11 → 3.13 : ce qui change vraiment

Trois releases en une semaine. Dashboard v2, Ollama first-class, patchs sécurité critiques, correctifs Telegram — ce qui impacte un setup quotidien.

· 5 min de lecture

Trois releases en une semaine. Environ cent-cinquante changements déployés entre mardi et hier.

Pas de changelog recopié ici. La question est : ce qui change concrètement pour un utilisateur avec un setup standard (Telegram + modèle local LM Studio/Ollama).


1. Dashboard v2 — Enfin un vrai UI

Release : 2026-03-12 (#41503)

Le dashboard d’OpenClaw a subi une refonte complète. Pendant longtemps, c’était un afterthought — quelque chose ajouté pour faire semblant d’avoir une interface.

Les vues principales

VueDescription
OverviewSessions actives, stats rapides
ChatInterface avec slash commands, export, pins
ConfigModèle par défaut, timeouts, configuration système
AgentGestion des agents principaux et sub-agents
SessionsListe des sessions en cours avec filtres

✅ Vue modulaire, navigation fluide ✅ Command palette fonctionnelle ✅ Slash commands dans les messages (/fast, /status…) ❌ Reload storm corrigé dans .13 — si le dashboard se rechargeait en boucle sur la .12, c’est réglé (#45541)

“J’ai attendu ce changement depuis longtemps. Le dashboard était soit trop minimaliste, soit bugué. Maintenant il est utilisable sans être surchargé.”


2. Ollama passe en première classe

Release : 2026.3.11 (#41529)

Avant la 3.11, configurer Ollama dans OpenClaw c’était bricoler un bloc providers dans le JSON à la main et déboguer en aveugle.

Maintenant : un chemin d’onboarding dédié avec deux modes :

  • Local uniquement — zéro cloud, zéro clé API, wizard qui suggère les modèles selon ton matériel
  • Cloud + Local — modèles cloud pour les tâches lourdes, local pour les tâches privées

Dans la 3.12, Ollama, vLLM et SGLang rejoignent l’architecture provider-plugin — leur configuration est maintenant aussi modulaire que celle d’Anthropic ou OpenAI.

Fix discret mais important (3.13)

Les modèles de raisonnement locaux ne font plus fuiter leurs pensées internes dans les réponses. Si tu utilisais un modèle distillé (Qwen, DeepSeek R1…) et voyais du <think>...</think> polluer les réponses — c’est corrigé.

⚠️ Point à surveiller : le contexte recommandé pour les modèles locaux passe à 64k tokens minimum. Les 9B quantisés avec 16k de contexte vont devoir composer avec ça.


3. Sécurité — Trois patchs critiques

Versions : 3.11 + 3.12

La section que personne ne lit. Aussi celle qui peut te coûter cher.

Cross-site WebSocket hijacking — GHSA-5wcw-8jjv-m286

En mode trusted-proxy, une faille permettait à une page malveillante de se connecter à la gateway avec des droits operator.admin. Concerné si tu exposes ton gateway derrière un reverse proxy (nginx, Caddy, Tailscale Serve).

Patchée dans la 3.11. Met à jour maintenant si tu n’es pas à jour.

Device pairing plus sûr

Les versions précédentes embarquaient les credentials partagés du gateway dans le payload de pairing. Si quelqu’un interceptait ton QR code, il avait les clés du gateway. Corrigé — tokens bootstrap à courte durée de vie.

Workspace plugins — auto-load désactivé — GHSA-99qw-6mr3-36qr

Un repo cloné ne peut plus exécuter du code plugin sans décision de confiance explicite.

Ces trois patchs auraient dû être là depuis le début. Pour un outil qui a accès à tes messages, tes fichiers, et peut exécuter des commandes sur ta machine, c’est non-négociable.


4. Telegram — Quatre correctifs de fiabilité

Version : 3.12/3.13

Telegram reste le canal le mieux supporté, mais il accumulait des bugs silencieux.

  • Sélecteur de modèle — la sélection via boutons inline ne persistait pas. Corrigé dans 3.13.
  • HTML chunking — les réponses longues avec du formatage HTML se découpaient parfois au mauvais endroit. Corrigé.
  • Déduplication des previews — les liens généraient parfois des previews en double. Corrigé.
  • Attachements médias — politique de transport unifiée (proxy vs direct).

Rien de spectaculaire — juste moins de comportements bizarres au quotidien.


5. Mémoire multimodale (opt-in)

Version : 3.12 (#43460)

OpenClaw peut maintenant indexer des images et des fichiers audio dans sa mémoire — pas seulement du texte. Configuré via memorySearch.extraPaths, nécessite Gemini gemini-embedding-2-preview pour les embeddings.

Mon avis honnête : c’est une direction intéressante mais utiliser Gemini pour les embeddings sur un setup qui se revendique local, c’est une contradiction que je n’ai pas encore résolue. À explorer.


Ce qui est resté cassé

Trois releases en une semaine, ça se voit.

  • sessions_yield pour les orchestrateurs — dans la 3.12 mais pas encore exposé clairement dans l’UI. Configuration JSON directe requise.
  • Mémoire multimodale — fonctionnelle mais doc incomplète. La référence à extraPaths sans exemple complet n’aide pas.
  • Talk Mode Android — nécessite encore un node apparié. Pas du one-click.

Verdict

Ce qui compte vraiment pour un setup quotidien Telegram + modèle local :

  • ✅ Dashboard enfin utilisable
  • ✅ Ollama first-class
  • ✅ Bugs Telegram silencieux corrigés
  • ✅ Sécurité gateway renforcée sur les points critiques

Ce qui ne change pas : la complexité de configuration reste là. OpenClaw reste un outil pour ceux qui sont à l’aise avec du JSON, Docker, et des logs de gateway. C’est le positionnement assumé du projet.

Si tu n’as pas mis à jour depuis quelques semaines :

# Mise à jour OpenClaw (Docker)
cd /opt/neog
docker compose pull openclaw-gateway
git checkout config/openclaw.json
docker compose up -d openclaw-gateway

Pas pour les nouvelles fonctionnalités — pour les patchs sécurité.

Partager cet article

Articles similaires