Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Vous connaissez sûrement Stable Diffusion et son grand frère SDXL, ces modèles de génération d’images par IA qui permettent de créer des imges à partir de simples descriptions textuelles. Mais saviez-vous qu’il est désormais possible d’accélérer considérablement leur pipeline d’inférence grâce aux Modèles de Consistance Latente (ou LCM) ?

Développés par une équipe chinoise, les LCM sont une technique de distillation qui permet de réduire drastiquement le nombre d’étapes nécessaires pour générer une image avec Stable Diffusion ou SDXL, tout en conservant une qualité optimale. Au lieu des 25 à 50 étapes habituelles, on peut descendre à seulement 4 à 8 étapes !

Concrètement, cela signifie des gains de vitesse d’un facteur 10 sur un Mac récent, ou la possibilité de générer des images en moins d’une seconde sur une RTX 3090. De quoi modifier les usages et les workflows, en rendant la génération d’images par IA accessible à tous, même sans matériel haut de gamme.

Mais le plus intéressant, c’est que grâce à une nouvelle méthode appelée LCM LoRA, il est possible d’appliquer cette optimisation à n’importe quel modèle SDXL ou Stable Diffusion fine-tuné, sans avoir à le distiller entièrement. Pour rappel, les LoRAs (pour Low-Rank Adaptation) sont des petits adaptateurs qui viennent se greffer au modèle pour lui donner des super-pouvoirs, un peu comme des plugins. Ils permettent ainsi de combiner les avantages des LCM (inférence ultra-rapide) avec la flexibilité du fine-tuning.

Et tout cela est parfaitement intégré dans la bibliothèque Diffusers de HuggingFace. Ainsi, avec seulement quelques lignes de code, vous pouvez charger un pipeline SDXL, lui appliquer un LCM LoRA, changer le scheduler et hop, vous voilà parés pour de l’inférence à la vitesse de l’éclair !

Cette accélération ouvre la voie à de nouveaux cas d’usage passionnants pour la génération d’images par IA :

  • Accessibilité : les outils génératifs deviennent utilisables par tous, même sans GPU dernier cri.
  • Itération rapide : les artistes et chercheurs peuvent tester plus d’idées et de variantes en un temps record.
  • Génération à la demande : on peut imaginer des services d’images personnalisées en quasi temps-réel.
  • Réduction des coûts : l’inférence ultra-rapide permet d’envisager des charges de travail en production, même sur CPU ou avec un budget limité.

Et pour plus d’info, voici quelques liens :

Prêts à générer des images à toute vitesse ?

À vous de jouer et encore merci à Lorenper pour l’info !


— Article en partenariat avec Incogni

Salut les amis, j’espère que vous profitez bien de ce printemps dégueulasse avant la période trouble de la fin d’année scolaire qui arrive. De mon côté, comme vous l’avez remarqué je charbonne pas mal en ce moment avec un rythme de publication assez poussé. Le site a 20 ans et presque toutes ses dents … la seconde jeunesse n’est pas un mythe. Et je vous teste du coup pas mal d’outils IA variés et éclectiques. L’occasion de rappeler que tout n’est pas (p)rose au pays du prompt.

Récemment je vous ai mis en garde sur les pratiques des applications d’achat de vêtements, les applis destinées aux enfants et même les voitures intelligentes. Vous pensiez que ce serait difficile de faire pire ? Et bien, détrompez-vous, car avec la mode de l’Intelligence artificielle, il semble « normal » de voir naitre des outils destinés à récolter un max d’informations personnelles à notre propos. Surtout si ce sont des extensions qui tournent sur Google Chrome (que vous devriez avoir remplacé par Firefox ou par Brave au minimum depuis 1974).

Si vous touchez à l’IA, vous savez qu’elles sont capables de rendre d’énormes services et de vous faire gagner du temps. Le souci c’est que cela les rend d’autant plus alléchantes à installer et à utiliser. Et leurs concepteurs l’ont bien compris. Les chercheurs d’Incogni ont donc passé au grill plus de 70 extensions Chrome pour voir si le résultat est catastrophique. Ou tout du moins qui s’en sort le moins bien et qui récolte quoi à votre propos.

Et l’état des lieux est … cata. Encore plus que pour les catégories précédemment citées. Ici ce sont pas moins de 70% des apps qui sont problématiques, mais qui en plus sont considérés à risques élevés. Par exemple 100% des extensions dédiées à l’écriture assistée par IA sont concernées (ouch). 60% récoltent vos données personnelles et surtout 44% récupèrent des infos qui peuvent vous identifier directement (adresse mail, téléphone, nom et prénom …). Du pain béni pour les data brokers.

Du côté des permissions demandées, sans surprises, ce sont les extensions de type assistant personnel qui se gavent le plus. Habitudes de surf, historique web, localisation, identifiants de connexions … certaines peuvent même aller jusqu’à injecter du code JavaScript dans les pages que vous utilisez, avec tous les risques que cela comporte. Parmi les apps inspectées, de grands noms comme Grammarly, Quillbot, Jasper ou WebChatGPT. Est-ce que ce sera utilisé à vos dépens ? Qui sait. Si vous voulez creuser les données, c’est par ici.

Bref, l’IA ne déroge pas à la règle habituelle du web : lorsqu’une nouvelle technologie débarque, c’est toujours un peu le far-west. Et pour se protéger un minimum il n’y a pas tant d’outils que ça, d’ou l’utilité d’un service comme Incogni.

En limitant la durée de rétention de données personnelles stockées chez les data brokers, Incogni contribue à renforcer votre confidentialité en ligne et à réduire votre exposition. L’outil ne peut pas empêcher ce genre d’applications de récupérer vos infos (il n’y a que vous qui pouvez le faire en étant très attentif à votre comportement en ligne, en n’installant rien d’inutile, etc.). Par contre il va empêcher les brokers qui achètent ou se procurent votre profil de l’utiliser et le revendre.

Via une interface simple à prendre en main, l’outil de Surfshark va servir d’intermédiaire. Il va analyser sa liste de courtiers sous surveillance (environ 200), voir si vous apparaissez dans leurs bases et si c’est le cas leur envoyer un mail pour demander un retrait. Et relancer sans arrêt jusqu’à ce que le broker effectue la suppression. En plus de voir l’avancée des étapes sur votre compte, vous pouvez aussi connaitre le niveau de dangerosité des différents brokers. Un retour sur mon test personnel est à lire ici.

Il fait aussi du suivit long terme. Donc dès qu’un vilain pas beau vous a effacé, vous savez que c’est pour de bon (s’il tente un coup en scred il sera rappelé à l’ordre). Et savoir qu’il ne fera plus d’argent sur votre dos est toujours une petite satisfaction. Le prix du service reste inchangé, vous pouvez vous abonner pour moins de 94€ TTC/an. Et cela sans risques grâce à la garantie satisfait ou remboursé de 30 jours.

Lancez-vous, testez Incogni !


Ceci est un truc qui peut paraître anodin mais qui, croyez-moi, peut totalement changer votre vie de développeur : les polices de caractères ! Et ouais, on n’y pense pas forcément mais ça a un impact énorme sur notre confort et notre productivité. Un peu comme choisir entre un bon vieux clavier mécanique qui claque bien et un clavier tout mou qui vous bousille les articulations. Bref, vous voyez l’idée…

Je suis tombé grâce à Lorenper (merci) sur un site vraiment sympa qui s’appelle Coding Font qui permet de tester des dizaines de polices et de les comparer pour voir laquelle vous convient le mieux. Et croyez-moi, y a du choix ! Des polices fines, des grasses, des arrondies, des plus carrées… Y en a pour tous les goûts.

Perso, celle que m’a recommandé le site et qui me conviendrait le mieux est Red Hat Mono.

Après, les goûts et les couleurs hein… L’essentiel, c’est de trouver chaussure à son pied ou plutôt police à son éditeur. Ça peut paraître un détail mais je vous assure que quand vous passez 8h par jour le nez dans votre code, avoir une police confortable, c’est mieux pour la fatigue.

Pour tester et trouver la police qui vous convient le mieux c’est par ici.


Vous êtes développeur sur Mac et vous galérez à tester vos apps sur différentes versions de macOS, surtout les bêtas ? J’ai ce qu’il vous faut, et ça s’appelle VirtualBuddy !

Comme Tart, ce petit outil open-source vous permet de virtualiser macOS 12 et plus sur les machines Apple Silicon et ça fonctionne même avec certaines distros Linux ARM comme Ubuntu.

L’installation est un jeu d’enfant grâce à l’assistant intégré et vous pouvez choisir parmi une collection d’images de restauration dispo sur les serveurs d’Apple, installer la dernière version stable de macOS, utiliser un fichier IPSW local, ou même une URL d’image personnalisée. Pour Linux, c’est pareil, vous pouvez utiliser un fichier .iso local ou choisir parmi une sélection de distros.

Et pour les bidouilleurs, vous pouvez même booter en mode récupération pour, par exemple, désactiver le SIP. VirtualBuddy gère le réseau, le partage de fichiers et même le presse-papiers entre l’hôte et l’invité. Vous pouvez personnaliser la configuration matérielle de la machine virtuelle et même éditer les variables NVRAM.

En parlant de partage, quand vous démarrez une VM sous macOS, VirtualBuddy monte automatiquement une image disque avec l’app VirtualBuddyGuest. Il suffit de double-cliquer dessus dans le Finder de la VM pour l’installer. Et là, magie, vous avez le partage du presse-papiers et des dossiers partagés configurés pour la VM !

Maintenant, imaginez que vous bidouillez un truc dans la VM et que tout plante. Pas de panique ! Grâce au clonage APFS, vous pouvez dupliquer une VM dans votre bibliothèque (avec Cmd+D dans le Finder), et le clone prendra quasi aucun espace disque supplémentaire. Comme ça, vous avez toujours une copie « propre » de la VM. Vous pouvez faire mumuse avec un doublon, et si ça plante, poubelle et re-duplication du clone clean. Easy peasy ! Des fonctionnalités de sécurité avancées comme le chiffrement et l’authentification sont également de la partie.

Pour partager des dossiers entre la VM et le Mac hôte, il y a deux options. Soit vous utilisez le partage de fichiers macOS standard via les Préférences Système. Soit, si la VM et l’hôte tournent sous macOS 13+, vous pouvez configurer des dossiers partagés direct dans les réglages de la VM avant de la démarrer. Pour monter les dossiers partagés dans la VM, une petite commande dans le Terminal et c’est réglé :

mkdir -p ~/Desktop/VirtualBuddyShared && mount -t virtiofs VirtualBuddyShared ~/Desktop/VirtualBuddyShared

Bref, si vous êtes développeur sur Mac et que vous en avez marre de vous arracher les cheveux pour tester vos apps sur 36 versions de macOS, foncez sur VirtualBuddy ! C’est gratuit et c’est open-source.

Merci à Lorenper pour l’info !!


L’émulation N64 a longtemps été limitée par des logiciels datant des années 2000, basés sur d’anciens systèmes de plugins. Mais ça, c’était avant !

Grâce à un nouvel outil révolutionnaire de « recompilation statique » baptisé N64: Recompiled et développé par le moddeur Wiseguy, on peut désormais transformer une ROM N64 en un exécutable Windows / Linux fonctionnel en quelques minutes seulement. Le premier projet exploitant cet outil s’appelle Zelda 64: Recompiled et permet de jouer nativement à Majora’s Mask (et bientôt Ocarina of Time) sur PC avec une foule d’améliorations.

Le principe est simple : l’outil traduit le code de la ROM en langage C pour qu’il puisse tourner sur un processeur moderne. À l’exécution, le rendu est converti en appels d’API bas niveau (Direct3D12 sous Windows, Vulkan sous Linux) grâce au moteur RT64. C’est une approche qui rappelle la couche de compatibilité Proton de Valve ou la Mega Man Legacy Collection.

Le résultat est bluffant : une précision quasi parfaite des effets spéciaux, une compatibilité totale avec les shaders et microcodes custom, des temps de chargement instantanés, une latence réduite au minimum… Le tout avec une stabilité à toute épreuve et des options pour jouer en 4K, ultrawide ou à plus de 60 FPS. De plus, le gyroscope est géré nativement sur les manettes compatibles, dont la Nintendo Switch Pro et la Steam Deck. Plus besoin de bidouiller des réglages pendant des heures !

Bien sûr, la recompilation n’est pas parfaite et nécessite encore quelques ajustements manuels, mais c’est sans commune mesure avec une décompilation complète qui peut prendre des années. La preuve, alors que le projet decompile Ocarina n’est pas terminé, Wiseguy a pu sortir un recomp jouable en seulement 2 jours ! Cela ouvre la voie à des portages de jeux N64 obscurs en un temps record.

Autre avantage : les recomps profitent directement des améliorations du moteur RT64, comme le ray tracing en temps réel, sans avoir à réécrire le code du jeu. C’est d’ailleurs prévu au programme, en plus du DLSS, des textures HD ou des caméras libres. De quoi redonner un sacré coup de jeune à ces classiques !

Évidemment, les portages « maison » type Ship of Harkinian restent pertinents avec leur approche plus fine et leur côté moddable à l’infini. Mais ces recomps offrent une alternative plus simple et rapide, idéale pour (re)découvrir les jeux dans les meilleures conditions. D’autant qu’ils tournent parfaitement sous Linux et Steam Deck !

Pour l’instant, seul le recomp Majora’s Mask est disponible, mais comme je le disais en intro, Ocarina of Time suivra bientôt. À terme, l’idée est de combiner les deux jeux dans un même launcher, de proposer des mods et des packs de textures, voire une version web pour jouer dans le navigateur. Si vous êtes développeur, vous pouvez même contribuer au projet sur GitHub et tenter de recompiler d’autres jeux. Les portes sont grandes ouvertes !