Open Interpreter - ChatGPT pour exécuter du code en local
Si vous êtes un peu barbu et que vous kiffez l’IA, vous allez adorer Open Interpreter. Cet outil je l’utilise depuis des mois et des mois, et je n’avais jamais pris le temps d’en faire un post.
Il s’agit d’une implémentation open-source et locale qui permet au LLM (locale ou d’OpenAI - ChatGPT) d’exécuter du code (Python, JavaScript, Shell, etc.) directement sur votre ordinateur. L’idée c’est d’aller encore plus loin que de simplement discuter avec l’IA.
Dans le cas d’Open Interpréter, elle est capable de produire du code, de l’exécuter, de récupérer le résultat de cette exécution et éventuellement de s’auto-corriger avant de passer à la suite.
Pour l’installer, c’est simple. Il vous faudra Python 3.10 ou 3.11. Dans votre terminal, tapez :
pip install open-interpreter
Puis lancez l’outil avec la commande :
interpreter
Et concrètement, qu’est ce qu’on peut faire avec ?
Et bien le mieux c’est que le logiciel se présente lui-même, non ?
Pour résumer, il peut donc exécuter du code, installer des packages, gérer ses erreurs, utiliser de l’AppleScript pour interagir avec l’ensemble de macOS (genre lire vos emails, changer de fond d’écran…) etc.
Dans mon cas, je l’utilise avec GPT-4 mais vous pouvez aussi le lancer avec un LLM local (notamment via le serveur intégré à LM Studio) :
interpreter --local
Ou se connecter à d’autres modèles en ligne que GPT-4 :
interpreter --model gpt-3.5-turbo interpreter --model claude-2 interpreter --model command-nightly
Pensez bien à exporter votre clé API sur votre système (vous pouvez caler ça dans votre .zshrc ou .bashrc) :
export OPENAI_API_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXX
Au-delà du chat interactif proposé par l’outil interpreter, il y a également un paquet en Python qui vous donne encore plus de contrôle puisque vous pouvez l’appeler dans vos scripts.
import interpreter interpreter.chat("Plot AAPL and META's normalized stock prices") # Executes a single command interpreter.chat() # Starts an interactive chat
- Ainsi, utilisez
interpreter
pour un chat interactif - Utilisez
interpreter.chat()
pour un chat programmatique - Utilisez
interpreter.reset()
pour réinitialiser la conversation - Puis sauvegardez et chargez des discussions avec
interpreter.load(messages)
Je vous renvoie vers la documentation sur la page Github si évidemment vous voulez creuser un peu plus ce outil merveilleux.
Maintenant pour l’avoir utilisé énormément, ça rend pas mal de service, surtout pour tout ce qui se passe en ligne de commande. C’est un bon assistant à l’usage du Shell. Pour ce qui est génération de code, il faut souvent repasser derrière lui, mais rien de dramatique non plus. Bref, ce truc couplé à votre cerveau et c’est le duo parfait pour avancer dans la vie.
Et en cadeau, offert pour vous par les Patreons qui me soutiennent, une vidéo tuto sur Open Interpreter.