Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Vous en avez assez des moustiques qui vous empêchent de profiter de votre jardin ? Moi aussi ! Mais j’ai peut-être la solution pour vous : la borne anti-moustiques LAMI ! Et c’est même une entreprise française qui l’a inventée ^^.

Alors, qu’est-ce que c’est exactement ?

Et bien il s’agit d’une borne solaire qui imite la présence humaine pour attirer les moustiques et les piéger en utilisant des leurres olfactifs comme des phéromones et du CO2 pour faire croire aux moustiques qu’un délicieux repas les attend. Et quand ils s’approchent, surprise ! Ils se font aspirer dans un filet.

Rassurez-vous, la borne ne piège que les moustiques et pas les autres insectes utiles comme les abeilles ou les papillons. C’est un système très sélectif qui en plus fonctionne sur tous les types de moustiques, même les redoutables moustiques tigres qui nous pourrissent la vie.

Le top du top, c’est que cette borne est totalement autonome en énergie grâce à son panneau solaire et sa batterie. Vous pouvez même détacher le panneau pour le recharger au soleil tranquillement. Pratique si vous voulez déplacer la borne. Et niveau portée, on est sur un rayon d’action de 20 à 30 mètres. Largement suffisant pour protéger votre petit coin de paradis.

Maintenant, parlons un peu technique. Les leurres olfactifs, il faut les renouveler tous les mois et pour une efficacité optimale, il faut bien positionner la borne : près de la végétation mais pas trop proche de vos espaces de vie. Sinon, vous risquez d’attirer les moustiques vers vous au lieu de les piéger. Par contre, il faut être un peu patient et une fois la borne installée, comptez 2 à 4 semaines pour voir une réduction de 80% des moustiques. Le temps que les œufs éclosent et que les adultes se fassent avoir. C’est le cycle de la vie, on n’y peut rien. 🤷‍♂️

Mais ce qui est génial avec LAMI, c’est leur état d’esprit car ils ont carrément rendu les fichiers de construction de la borne accessibles à tous, gratuitement ! Vous pouvez les télécharger sur leur site web et fabriquer votre propre borne si vous êtes un peu bricoleur. C’est top pour la communauté des makers et des bidouilleurs. Et si le bricolage n’est pas votre truc, pas de souci, vous pouvez aussi acheter la borne en kit prête à monter.

Allez donc faire un tour sur leur site anti-moustiques-intelligent.com, pour y trouver plein d’infos sur le projet, l’équipe, le fonctionnement de la borne…etc. Je trouve cette initiative super cool car ils démocratisent une technologie efficace et écolo pour lutter contre les moustiques, tout en favorisant le partage et l’autonomie. C’est le genre de projet collaboratif que j’adore.

Allez, je vous laisse, je retourne entrainer mes grenouilles pour attraper les moustiques. Que la force soit avec vous dans cette guerre sans merci contre ces satanées bestioles !

Merci Lorenper pour l’info !


Vous connaissez sûrement Stable Diffusion et son grand frère SDXL, ces modèles de génération d’images par IA qui permettent de créer des imges à partir de simples descriptions textuelles. Mais saviez-vous qu’il est désormais possible d’accélérer considérablement leur pipeline d’inférence grâce aux Modèles de Consistance Latente (ou LCM) ?

Développés par une équipe chinoise, les LCM sont une technique de distillation qui permet de réduire drastiquement le nombre d’étapes nécessaires pour générer une image avec Stable Diffusion ou SDXL, tout en conservant une qualité optimale. Au lieu des 25 à 50 étapes habituelles, on peut descendre à seulement 4 à 8 étapes !

Concrètement, cela signifie des gains de vitesse d’un facteur 10 sur un Mac récent, ou la possibilité de générer des images en moins d’une seconde sur une RTX 3090. De quoi modifier les usages et les workflows, en rendant la génération d’images par IA accessible à tous, même sans matériel haut de gamme.

Mais le plus intéressant, c’est que grâce à une nouvelle méthode appelée LCM LoRA, il est possible d’appliquer cette optimisation à n’importe quel modèle SDXL ou Stable Diffusion fine-tuné, sans avoir à le distiller entièrement. Pour rappel, les LoRAs (pour Low-Rank Adaptation) sont des petits adaptateurs qui viennent se greffer au modèle pour lui donner des super-pouvoirs, un peu comme des plugins. Ils permettent ainsi de combiner les avantages des LCM (inférence ultra-rapide) avec la flexibilité du fine-tuning.

Et tout cela est parfaitement intégré dans la bibliothèque Diffusers de HuggingFace. Ainsi, avec seulement quelques lignes de code, vous pouvez charger un pipeline SDXL, lui appliquer un LCM LoRA, changer le scheduler et hop, vous voilà parés pour de l’inférence à la vitesse de l’éclair !

Cette accélération ouvre la voie à de nouveaux cas d’usage passionnants pour la génération d’images par IA :

  • Accessibilité : les outils génératifs deviennent utilisables par tous, même sans GPU dernier cri.
  • Itération rapide : les artistes et chercheurs peuvent tester plus d’idées et de variantes en un temps record.
  • Génération à la demande : on peut imaginer des services d’images personnalisées en quasi temps-réel.
  • Réduction des coûts : l’inférence ultra-rapide permet d’envisager des charges de travail en production, même sur CPU ou avec un budget limité.

Et pour plus d’info, voici quelques liens :

Prêts à générer des images à toute vitesse ?

À vous de jouer et encore merci à Lorenper pour l’info !


— Article en partenariat avec Incogni

Salut les amis, j’espère que vous profitez bien de ce printemps dégueulasse avant la période trouble de la fin d’année scolaire qui arrive. De mon côté, comme vous l’avez remarqué je charbonne pas mal en ce moment avec un rythme de publication assez poussé. Le site a 20 ans et presque toutes ses dents … la seconde jeunesse n’est pas un mythe. Et je vous teste du coup pas mal d’outils IA variés et éclectiques. L’occasion de rappeler que tout n’est pas (p)rose au pays du prompt.

Récemment je vous ai mis en garde sur les pratiques des applications d’achat de vêtements, les applis destinées aux enfants et même les voitures intelligentes. Vous pensiez que ce serait difficile de faire pire ? Et bien, détrompez-vous, car avec la mode de l’Intelligence artificielle, il semble « normal » de voir naitre des outils destinés à récolter un max d’informations personnelles à notre propos. Surtout si ce sont des extensions qui tournent sur Google Chrome (que vous devriez avoir remplacé par Firefox ou par Brave au minimum depuis 1974).

Si vous touchez à l’IA, vous savez qu’elles sont capables de rendre d’énormes services et de vous faire gagner du temps. Le souci c’est que cela les rend d’autant plus alléchantes à installer et à utiliser. Et leurs concepteurs l’ont bien compris. Les chercheurs d’Incogni ont donc passé au grill plus de 70 extensions Chrome pour voir si le résultat est catastrophique. Ou tout du moins qui s’en sort le moins bien et qui récolte quoi à votre propos.

Et l’état des lieux est … cata. Encore plus que pour les catégories précédemment citées. Ici ce sont pas moins de 70% des apps qui sont problématiques, mais qui en plus sont considérés à risques élevés. Par exemple 100% des extensions dédiées à l’écriture assistée par IA sont concernées (ouch). 60% récoltent vos données personnelles et surtout 44% récupèrent des infos qui peuvent vous identifier directement (adresse mail, téléphone, nom et prénom …). Du pain béni pour les data brokers.

Du côté des permissions demandées, sans surprises, ce sont les extensions de type assistant personnel qui se gavent le plus. Habitudes de surf, historique web, localisation, identifiants de connexions … certaines peuvent même aller jusqu’à injecter du code JavaScript dans les pages que vous utilisez, avec tous les risques que cela comporte. Parmi les apps inspectées, de grands noms comme Grammarly, Quillbot, Jasper ou WebChatGPT. Est-ce que ce sera utilisé à vos dépens ? Qui sait. Si vous voulez creuser les données, c’est par ici.

Bref, l’IA ne déroge pas à la règle habituelle du web : lorsqu’une nouvelle technologie débarque, c’est toujours un peu le far-west. Et pour se protéger un minimum il n’y a pas tant d’outils que ça, d’ou l’utilité d’un service comme Incogni.

En limitant la durée de rétention de données personnelles stockées chez les data brokers, Incogni contribue à renforcer votre confidentialité en ligne et à réduire votre exposition. L’outil ne peut pas empêcher ce genre d’applications de récupérer vos infos (il n’y a que vous qui pouvez le faire en étant très attentif à votre comportement en ligne, en n’installant rien d’inutile, etc.). Par contre il va empêcher les brokers qui achètent ou se procurent votre profil de l’utiliser et le revendre.

Via une interface simple à prendre en main, l’outil de Surfshark va servir d’intermédiaire. Il va analyser sa liste de courtiers sous surveillance (environ 200), voir si vous apparaissez dans leurs bases et si c’est le cas leur envoyer un mail pour demander un retrait. Et relancer sans arrêt jusqu’à ce que le broker effectue la suppression. En plus de voir l’avancée des étapes sur votre compte, vous pouvez aussi connaitre le niveau de dangerosité des différents brokers. Un retour sur mon test personnel est à lire ici.

Il fait aussi du suivit long terme. Donc dès qu’un vilain pas beau vous a effacé, vous savez que c’est pour de bon (s’il tente un coup en scred il sera rappelé à l’ordre). Et savoir qu’il ne fera plus d’argent sur votre dos est toujours une petite satisfaction. Le prix du service reste inchangé, vous pouvez vous abonner pour moins de 94€ TTC/an. Et cela sans risques grâce à la garantie satisfait ou remboursé de 30 jours.

Lancez-vous, testez Incogni !


Ceci est un truc qui peut paraître anodin mais qui, croyez-moi, peut totalement changer votre vie de développeur : les polices de caractères ! Et ouais, on n’y pense pas forcément mais ça a un impact énorme sur notre confort et notre productivité. Un peu comme choisir entre un bon vieux clavier mécanique qui claque bien et un clavier tout mou qui vous bousille les articulations. Bref, vous voyez l’idée…

Je suis tombé grâce à Lorenper (merci) sur un site vraiment sympa qui s’appelle Coding Font qui permet de tester des dizaines de polices et de les comparer pour voir laquelle vous convient le mieux. Et croyez-moi, y a du choix ! Des polices fines, des grasses, des arrondies, des plus carrées… Y en a pour tous les goûts.

Perso, celle que m’a recommandé le site et qui me conviendrait le mieux est Red Hat Mono.

Après, les goûts et les couleurs hein… L’essentiel, c’est de trouver chaussure à son pied ou plutôt police à son éditeur. Ça peut paraître un détail mais je vous assure que quand vous passez 8h par jour le nez dans votre code, avoir une police confortable, c’est mieux pour la fatigue.

Pour tester et trouver la police qui vous convient le mieux c’est par ici.


Vous êtes développeur sur Mac et vous galérez à tester vos apps sur différentes versions de macOS, surtout les bêtas ? J’ai ce qu’il vous faut, et ça s’appelle VirtualBuddy !

Comme Tart, ce petit outil open-source vous permet de virtualiser macOS 12 et plus sur les machines Apple Silicon et ça fonctionne même avec certaines distros Linux ARM comme Ubuntu.

L’installation est un jeu d’enfant grâce à l’assistant intégré et vous pouvez choisir parmi une collection d’images de restauration dispo sur les serveurs d’Apple, installer la dernière version stable de macOS, utiliser un fichier IPSW local, ou même une URL d’image personnalisée. Pour Linux, c’est pareil, vous pouvez utiliser un fichier .iso local ou choisir parmi une sélection de distros.

Et pour les bidouilleurs, vous pouvez même booter en mode récupération pour, par exemple, désactiver le SIP. VirtualBuddy gère le réseau, le partage de fichiers et même le presse-papiers entre l’hôte et l’invité. Vous pouvez personnaliser la configuration matérielle de la machine virtuelle et même éditer les variables NVRAM.

En parlant de partage, quand vous démarrez une VM sous macOS, VirtualBuddy monte automatiquement une image disque avec l’app VirtualBuddyGuest. Il suffit de double-cliquer dessus dans le Finder de la VM pour l’installer. Et là, magie, vous avez le partage du presse-papiers et des dossiers partagés configurés pour la VM !

Maintenant, imaginez que vous bidouillez un truc dans la VM et que tout plante. Pas de panique ! Grâce au clonage APFS, vous pouvez dupliquer une VM dans votre bibliothèque (avec Cmd+D dans le Finder), et le clone prendra quasi aucun espace disque supplémentaire. Comme ça, vous avez toujours une copie « propre » de la VM. Vous pouvez faire mumuse avec un doublon, et si ça plante, poubelle et re-duplication du clone clean. Easy peasy ! Des fonctionnalités de sécurité avancées comme le chiffrement et l’authentification sont également de la partie.

Pour partager des dossiers entre la VM et le Mac hôte, il y a deux options. Soit vous utilisez le partage de fichiers macOS standard via les Préférences Système. Soit, si la VM et l’hôte tournent sous macOS 13+, vous pouvez configurer des dossiers partagés direct dans les réglages de la VM avant de la démarrer. Pour monter les dossiers partagés dans la VM, une petite commande dans le Terminal et c’est réglé :

mkdir -p ~/Desktop/VirtualBuddyShared && mount -t virtiofs VirtualBuddyShared ~/Desktop/VirtualBuddyShared

Bref, si vous êtes développeur sur Mac et que vous en avez marre de vous arracher les cheveux pour tester vos apps sur 36 versions de macOS, foncez sur VirtualBuddy ! C’est gratuit et c’est open-source.

Merci à Lorenper pour l’info !!