Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Vous êtes développeur sur Mac et vous galérez à tester vos apps sur différentes versions de macOS, surtout les bêtas ? J’ai ce qu’il vous faut, et ça s’appelle VirtualBuddy !

Comme Tart, ce petit outil open-source vous permet de virtualiser macOS 12 et plus sur les machines Apple Silicon et ça fonctionne même avec certaines distros Linux ARM comme Ubuntu.

L’installation est un jeu d’enfant grâce à l’assistant intégré et vous pouvez choisir parmi une collection d’images de restauration dispo sur les serveurs d’Apple, installer la dernière version stable de macOS, utiliser un fichier IPSW local, ou même une URL d’image personnalisée. Pour Linux, c’est pareil, vous pouvez utiliser un fichier .iso local ou choisir parmi une sélection de distros.

Et pour les bidouilleurs, vous pouvez même booter en mode récupération pour, par exemple, désactiver le SIP. VirtualBuddy gère le réseau, le partage de fichiers et même le presse-papiers entre l’hôte et l’invité. Vous pouvez personnaliser la configuration matérielle de la machine virtuelle et même éditer les variables NVRAM.

En parlant de partage, quand vous démarrez une VM sous macOS, VirtualBuddy monte automatiquement une image disque avec l’app VirtualBuddyGuest. Il suffit de double-cliquer dessus dans le Finder de la VM pour l’installer. Et là, magie, vous avez le partage du presse-papiers et des dossiers partagés configurés pour la VM !

Maintenant, imaginez que vous bidouillez un truc dans la VM et que tout plante. Pas de panique ! Grâce au clonage APFS, vous pouvez dupliquer une VM dans votre bibliothèque (avec Cmd+D dans le Finder), et le clone prendra quasi aucun espace disque supplémentaire. Comme ça, vous avez toujours une copie « propre » de la VM. Vous pouvez faire mumuse avec un doublon, et si ça plante, poubelle et re-duplication du clone clean. Easy peasy ! Des fonctionnalités de sécurité avancées comme le chiffrement et l’authentification sont également de la partie.

Pour partager des dossiers entre la VM et le Mac hôte, il y a deux options. Soit vous utilisez le partage de fichiers macOS standard via les Préférences Système. Soit, si la VM et l’hôte tournent sous macOS 13+, vous pouvez configurer des dossiers partagés direct dans les réglages de la VM avant de la démarrer. Pour monter les dossiers partagés dans la VM, une petite commande dans le Terminal et c’est réglé :

mkdir -p ~/Desktop/VirtualBuddyShared && mount -t virtiofs VirtualBuddyShared ~/Desktop/VirtualBuddyShared

Bref, si vous êtes développeur sur Mac et que vous en avez marre de vous arracher les cheveux pour tester vos apps sur 36 versions de macOS, foncez sur VirtualBuddy ! C’est gratuit et c’est open-source.

Merci à Lorenper pour l’info !!


L’émulation N64 a longtemps été limitée par des logiciels datant des années 2000, basés sur d’anciens systèmes de plugins. Mais ça, c’était avant !

Grâce à un nouvel outil révolutionnaire de « recompilation statique » baptisé N64: Recompiled et développé par le moddeur Wiseguy, on peut désormais transformer une ROM N64 en un exécutable Windows / Linux fonctionnel en quelques minutes seulement. Le premier projet exploitant cet outil s’appelle Zelda 64: Recompiled et permet de jouer nativement à Majora’s Mask (et bientôt Ocarina of Time) sur PC avec une foule d’améliorations.

Le principe est simple : l’outil traduit le code de la ROM en langage C pour qu’il puisse tourner sur un processeur moderne. À l’exécution, le rendu est converti en appels d’API bas niveau (Direct3D12 sous Windows, Vulkan sous Linux) grâce au moteur RT64. C’est une approche qui rappelle la couche de compatibilité Proton de Valve ou la Mega Man Legacy Collection.

Le résultat est bluffant : une précision quasi parfaite des effets spéciaux, une compatibilité totale avec les shaders et microcodes custom, des temps de chargement instantanés, une latence réduite au minimum… Le tout avec une stabilité à toute épreuve et des options pour jouer en 4K, ultrawide ou à plus de 60 FPS. De plus, le gyroscope est géré nativement sur les manettes compatibles, dont la Nintendo Switch Pro et la Steam Deck. Plus besoin de bidouiller des réglages pendant des heures !

Bien sûr, la recompilation n’est pas parfaite et nécessite encore quelques ajustements manuels, mais c’est sans commune mesure avec une décompilation complète qui peut prendre des années. La preuve, alors que le projet decompile Ocarina n’est pas terminé, Wiseguy a pu sortir un recomp jouable en seulement 2 jours ! Cela ouvre la voie à des portages de jeux N64 obscurs en un temps record.

Autre avantage : les recomps profitent directement des améliorations du moteur RT64, comme le ray tracing en temps réel, sans avoir à réécrire le code du jeu. C’est d’ailleurs prévu au programme, en plus du DLSS, des textures HD ou des caméras libres. De quoi redonner un sacré coup de jeune à ces classiques !

Évidemment, les portages « maison » type Ship of Harkinian restent pertinents avec leur approche plus fine et leur côté moddable à l’infini. Mais ces recomps offrent une alternative plus simple et rapide, idéale pour (re)découvrir les jeux dans les meilleures conditions. D’autant qu’ils tournent parfaitement sous Linux et Steam Deck !

Pour l’instant, seul le recomp Majora’s Mask est disponible, mais comme je le disais en intro, Ocarina of Time suivra bientôt. À terme, l’idée est de combiner les deux jeux dans un même launcher, de proposer des mods et des packs de textures, voire une version web pour jouer dans le navigateur. Si vous êtes développeur, vous pouvez même contribuer au projet sur GitHub et tenter de recompiler d’autres jeux. Les portes sont grandes ouvertes !


Vous en avez assez de passer des heures à chercher la formulation parfaite pour obtenir de bons résultats avec vos prompts IA ?

Ne vous cassez plus la tête, puisque Anthropic a pensé à tout avec sa Prompt Library. Cette bibliothèque gratuite de prompts va vous permettre d’interagir plus facilement avec des outils comme Claude3, ChatGPT, Mistral…etc. Les prompts que vous y trouverez sont pré-optimisés pour une multitude de tâches, allant de la rédaction au développement en passant par l’analyse de données. Et ça n’a de cesse de s’enrichir puisque tout le monde peut soumettre ses meilleurs prompts.

Pour l’utiliser, il vous suffit de copier-coller le prompt de votre choix dans votre IA préférée, d’y apporter quelques modifications si le cœur vous en dit, et voilà ! Il y a même le code en TypeScript ou Python qui vous permettra de passer un message « system » avant votre message « user ».

Chacun de ces prompts est le fruit d’un travail minutieux de la part des équipes d’Anthropic dont l’objectif est de fournir des résultats d’e qualité supérieure d’excellente qualité afin de montrer ce que Claude3 a dans le ventre. Et, comme je le disais, il y en a pour tous les goûts… Des prompts pour générer des recettes, interpréter les rêves, se lancer dans la médiation pleine conscience, à des choses plus boulot / business comme créer une marque, rédiger des documents, debugger du code python et j’en passe.

Si ça vous dit de jeter un œil, c’est par ici que ça se passe.


Vous en avez marre du client web Discord qui bouffe toute votre RAM et qui lance des mises à jours qui plantent toutes les 2 heures ? Bienvenue au club !

Heureusement, y’a un p’tit gars qui a décidé de prendre les choses en main en développant son propre client Discord en Python. Ça s’appelle Naticord (ou Native-cord), et c’est léger, personnalisable et super efficace !

Quand j’ai découvert ce projet sur GitHub, j’ai tout de suite accroché. Un client Discord qui peut tourner avec seulement 25 Mo de RAM en moyenne, contre 400 Mo pour l’app officielle dans certains cas, c’est quand même un sacré tour de force ! En plus, l’interface est inspirée de feu Windows Live Messenger (paix à son âme), avec un côté minimaliste et fonctionnel qui fait plaisir à voir, comme les bulles de conversation par exemple.

Mais attention, faut pas s’attendre à retrouver toutes les fonctionnalités de Discord non plus. Naticord se concentre sur l’essentiel :

  • Se connecter avec un token Discord
  • Voir ses amis et discuter en MP
  • Accéder aux serveurs et canaux de base
  • Envoyer des messages, des fichiers et des images
  • Basculer entre plusieurs comptes

Pas de fioritures, juste ce qu’il faut pour tchatter tranquillou avec ses potes. Et franchement, pour l’utilisation qu’on en a en général, c’est largement suffisant ! Pour l’installer, c’est pas bien compliqué. Suffit d’avoir Python et pip sous la main, et de lancer ces petites commandes magiques :

pip install PyQt5 requests

Et hop, vous êtes parés pour lancer Naticord :

python naticord.py

Évidemment, faudra quand même rentrer votre token Discord pour vous connecter (voir le tuto sur le github). Mais une fois que c’est fait, vous pourrez profiter d’une expérience allégée, sans prise de tête.

Au menu des prochaines updates, on devrait avoir droit à un meilleur support des serveurs, des photos de profil dans la liste d’amis, et même un mode dark pour ménager nos petits yeux fragiles. Le mode nuit actuel a encore quelques soucis, mais ça devrait s’arranger bientôt. Le développeur bosse aussi sur l’édition/suppression de messages, les emojis, les catégories de canaux, et qui sait, peut-être même la vidéo et les appels vocaux un de ces quatre !

En attendant, je trouve que Naticord est une excellente alternative pour ceux qui veulent un client Discord qui va droit au but, sans chichi. Par contre attention, même si personne n’a encore eu de souci, Discord pourrait très bien vous bannir pour utiliser un client tiers. Rien ne les en empêche, donc soyez conscient de ça.

Merci à Lorenper pour le partage !


Open WebUI débarque pour changer notre façon d’interagir avec Ollama grâce à une interface graphique intuitive et ergonomique ! Parce que l’IA, c’est cool, mais si c’est simple à utiliser, c’est encore mieux. Ollama pour rappel, c’est un outil qui permet de faire tourner des LLM en local et qui s’utilise soit via du code, soit directement en ligne de commande.

Avec Open WebUI, vous allez enfin avoir une interface web personnalisable avec votre thème, sombre pour les hackers en herbe ou clair pour les âmes sensibles, dans la langue de votre choix, de l’anglais au klingon en passant par le français, et vous pourrez ainsi causer avec Ollama comme si vous étiez sur ChatGPT. Avec le support de Markdown, de LaTeX et de la coloration syntaxique, vous pourrez même lui faire cracher du code et des formules mathématiques comme jamais.

Open WebUI permet même d’utiliser plusieurs modèles en parallèle, comparer leurs réponses, et même les faire discuter entre eux… Et si vous voulez de l’interaction plus poussée, lâchez-vous avec les fonctionnalités de Récupération Augmentée (RAG). Vous pourrez intégrer des documents externes dans vos conversations et même aller les chercher directement sur le web grâce à une fonction de navigation intégrée.

Avec l’outil de création de fichiers modèle (modelfiles), vous pouvez également définir des agents conversationnels sur mesure et les partager avec la communauté Open WebUI.

Bien sûr, comme tout bon logiciel qui se respecte, Open WebUI gère la reconnaissance vocale, la synthèse Text-to-Speech et même la génération d’images avec DALL-E et d’autres systèmes compatibles. Cadeau bonux, l’intégration avec les API compatibles OpenAI, pour encore plus de possibilités déjantées.

Pour plus d’informations sur ces fonctionnalités et comment les configurer, consultez la documentation officielle d’Open WebUI.

C’est open source, c’est puissant, c’est customisable à outrance alors que vous soyez un champion du dev ou comme moi, juste un curieux qui veut s’amuser avec l’IA, vous allez vous régaler.

Avant de vous lancer dans l’installation d’Open WebUI, assurez-vous d’avoir les prérequis suivants :

  • Docker installé sur votre machine
  • Une URL de base pour Ollama (OLLAMA_BASE_URL) correctement configurée

Pour configurer l’URL de base d’Ollama, vous pouvez soit la définir en tant que variable d’environnement, soit la spécifier dans un fichier de configuration dédié.

Une fois les prérequis remplis, vous pouvez procéder à l’installation d’Open WebUI en utilisant Docker :

docker run -d -p 3000:8080 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Cette commande va télécharger l’image Docker d’Open WebUI et lancer un conteneur accessible sur http://localhost:3000.

Amusez-vous bien et si vous voulez en savoir plus, toutes les infos sont ici.