Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Boston Dynamics, le célèbre fabricant américain de robots, va vous épater une fois de plus avec sa dernière prouesse technologique : Atlas, le robot humanoïde qui passe en mode « sans fil » si je puis dire ! Eh oui, ce grand gaillard mécanique qui nous avait déjà bluffé par ses prouesses physiques fait peau neuve et troque ses câbles encombrants contre une batterie bien pratique. Fini le régime « branché sur secteur », Atlas peut maintenant se la jouer nomade et partir à l’aventure sans sa laisse, en abandonnant son système hydraulique pour un système 100% électrique.

Vous l’aurez compris parce que vous êtes super malins, limite HPI je pense, l’idée c’est de le rendre plus autonome et plus mobile afin qu’il puisse se faufiler dans des endroits inaccessibles, intervenir sur des terrains accidentés, et même prêter main forte lors de missions de sauvetage.

Grâce à ses capteurs et ses algorithmes de pointe, il peut analyser son environnement en temps réel, esquiver les obstacles tel un ninja, et même se relever tout seul comme un grand s’il se prend une gamelle. Un vrai pro de la gymnastique quoiqu’un peu flippant ! Équipé de capteurs comme des caméras, du lidar, du sonar et de l’imagerie thermique, il est ainsi capable de collecter des données dans différents environnements industriels.

Mais le plus fort, c’est qu’Atlas apprend à une vitesse affolante. Ses créateurs lui font suivre un entraînement intensif digne des meilleurs athlètes : courses, sauts, pirouettes… leur robot est soumis à un vrai parcours du combattant et le résultat est là puisqu’à chaque nouvelle vidéo, on reste scotché devant les prouesses de ce prodige mécanique. Grâce à des techniques de vision par ordinateur et d’apprentissage automatique, il peut détecter des objets, reconnaître des formes et suivre des mouvements.

Boston Dynamics a aussi lancé son propre système d’exploitation pour robots, baptisé Orbit. C’est la tour de contrôle qui permet de gérer toute une flotte de robots, de créer des jumeaux numériques des sites, pour orchestrer une robotisation complète d’un entrepôt ou d’une usine par exemple. Pour l’instant, seul Spot y a droit, mais Atlas et Stretch devraient bientôt être de la partie.

Pour le plaisir, je vous remets aussi la vidéo très impressionnante de l’ancienne version d’Atlas qui lui est hydraulique :

Évidemment, tout ça soulève pas mal de questions sur l’avenir de nos amis les robots. Est-ce qu’un jour Atlas et ses copains remplaceront les humains sur les chantiers ou dans les usines ? Est-ce qu’ils viendront nous sauver des décombres tel Superman quand un bâtiment s’effondrera ? Une chose est sûre, Boston Dynamics ne compte pas s’arrêter en si bon chemin. L’objectif c’est de l’intégrer avec les autres systèmes de l’entreprise comme des ERP pour améliorer encore un peu plus ses fonctionnalités et lui fournir des tas de données en temps réel.

Actuellement, la société américaine planche sur une version encore plus perfectionnée d’Atlas, avec une intelligence artificielle dernier cri et une autonomie rallongée et à terme, ce robot pourrait bien devenir le nouveau chouchou des industriels et des services de secours du monde entier même s’il faut garder à l’esprit qu’il ne peut pas encore tout faire car certaines zones confinées ou difficiles d’accès peuvent nécessiter d’autres méthodes d’inspection en complément.

Dommage, je l’aurais bien amené dans la forêt avec moi pour couper du bois. M’enfin, rassurez-vous, même avec toutes ces améliorations, Atlas n’est pas près de piquer le boulot de Terminator. Enfin, espérons-le ! En attendant, on ne peut que saluer le génie des ingénieurs de Boston Dynamics, qui repoussent sans cesse les limites de la robotique.

Et si vous voulez en savoir plus sur les dernières avancées d’Atlas, je vous invite à consulter le blog officiel de Boston Dynamics qui détaille les dessous de cette nouvelle version sur batterie.

Source


Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source


Les générateurs d’images IA actuels comme Midjourney, Dall-E et j’en passe, font polémique puisqu’ils piochent allégrement dans les œuvres des artistes sans leur consentement ni rémunération. Mais des solutions sont en train de se mettre en place pour les entreprises qui souhaiteraient utiliser l’IA pour illustrer leurs supports sans pour autant piller les artistes.

Une de ces solutions, c’est Tess qui propose une approche que j’ai trouvée intéressante puisqu’elle met en place des collaborations avec des créateurs pour utiliser leur style dans des modèles de diffusion d’images.

Concrètement, chaque modèle d’IA est entraîné sur le style visuel d’un artiste unique, avec son accord puis l’outil utilise un SDXL custom (Stable Diffusion) pour générer les images. Évidemment, à chaque fois qu’une image est générée avec son style, l’artiste touche des royalties ! C’est gagnant-gagnant donc.

L’outil intègre également un système de métadonnées basé sur le protocole C2PA, qui permet d’identifier clairement les images générées par IA et de les distinguer des créations originales.

L’objectif de Tess est donc clair : démocratiser la création d’images artistiques de qualité, en la rendant accessible au plus grand nombre, tout en rémunérant équitablement les artistes et leur permettant de garder la maitrise de leur art. C’est une bonne idée vous ne trouvez pas ?

Et les artistes dans tout ça ? Et bien si j’en crois le site de Tess, ils sont déjà plus de 100 à avoir déjà sauté le pas, séduits par ce nouveau modèle de rémunération. Maintenant si vous voulez devenir clients de la plateforme, ce n’est malheureusement pas encore ouvert à tous, mais une liste d’attente est en place pour vous inscrire et être tenu au courant.


Les avancées fulgurantes dans le domaine de l’intelligence artificielle ces dernières années ont suscité autant d’enthousiasme que d’inquiétudes et si les dernières déclarations de Dario Amodei, PDG d’Anthropic, se confirment, nous pourrions bien être à l’aube d’une nouvelle ère où les IA seront capables de se répliquer et de survivre de manière autonome comme n’importe quel être vivant.

Lors d’une récente interview pour le New York Times (je vous mets le transcript ici), Amodei a évoqué la possibilité que nous atteignions bientôt un niveau d’IA qu’il qualifie d’ASL 4. Ce stade, qui implique une autonomie et une capacité de persuasion accrues, pourrait permettre à des acteurs étatiques comme la Corée du Nord, la Chine ou la Russie de renforcer considérablement leurs capacités offensives dans divers domaines militaires.

Pour rappel, il a cofondé Anthropic avec sa sœur Daniela après avoir quitté OpenAI en raison de divergences sur l’orientation de l’entreprise. Chez OpenAI, il avait notamment participé au développement de GPT-3. Donc autant dire qu’il maitrise son sujet.

ASL signifie « Architectural Safety Level » (Niveau de Sécurité Architecturale en français). C’est une échelle empruntée aux laboratoires de virologie concernant leur niveau de « biosécurité » (spéciale dédicace à Wuhan ^^) qu’Anthropic a adapté à sa sauce pour évaluer le niveau de sécurité et de fiabilité d’une IA.

Ça va de 1 à 5 et ça donne à peu près ça :

  • ASL 1 : c’est une IA qui a peu ou pas de garanties de sécurité du tout.
  • ASL 2 : c’est une IA avec quelques garanties de sécurité de base.
  • ASL 3 : c’est une IA avec des garanties de sécurité modérées. Considérée suffisamment fiable pour certaines applications.
  • ASL 4 : c’est une IA avec de solides garanties de sécurité. Elle est considérée comme très fiable et peut être utilisée pour la plupart des applications, y compris les applications critiques comme tout ce qui est militaire.
  • ASL 5 : c’est une IA avec des garanties de sécurité extrêmement élevées. Elle peut être considérée comme sûre même pour les applications les plus critiques.

Donc ASL 4 c’est un niveau élevé et ça peut potentiellement inclure « l’autonomie » et la « persuasion ». Ah et actuellement, on est au niveau ASL 2.

Mais ce qui est encore plus impressionnant, c’est la perspective d’une IA capable de se répliquer et de survivre de manière autonome. Selon lui, nous pourrions atteindre ce stade critique dès 2025 ou 2028. Il ne s’agit pas d’une vision lointaine, mais bien d’un futur proche. Perso, un programme informatique capable de se répliquer et de s’adapter à son environnement (« survivre »), c’est ce que j’appelle un virus… ça ne me dit rien qui vaille. Bref, si les prédictions d’Amodei se confirment, cela soulève de nombreuses questions sur les implications d’une telle avancée technologique : Une IA autonome et capable de se répliquer pourrait-elle échapper à notre contrôle ? Quelles seraient les conséquences sur notre société, notre économie… notre sécurité ?

Comme l’histoire de la conscience la dernière fois, ça fait un peu flipper, mais une fois encore, c’est super important que le développement de ces technologies se fasse de manière responsable et éthique, avec, si c’est nécessaire, des garde-fous.

En tout cas, j’sais pas pour vous, mais moi j’ai l’impression qu’on nage en plein scénario de SF en ce moment.

Source


Si vous vous intéressez un peu aux outils IA, vous connaissez sûrement Claude, l’assistant IA dernière génération d’Anthropic. Depuis la sortie de sa version 3, c’est d’ailleurs devenu mon meilleur pote pour coder à la vitesse de l’éclair. j’ai même pris un abonnement payant en rusant un peu.

Toutefois, le seul truc qui me ralentissait dans mes grandes ambitions, c’était de devoir copier-coller à la main tous mes fichiers de code dans la fenêtre de contexte de Claude pour ensuite lui demander d’analyser ça, et me proposer des corrections ou une nouvelle fonction. Mais ça, c’était avant car je suis tombé sur un petit bijou opensource qui va vous changer la vie : AiFormat.

Ce petit outil en ligne de commande vous permet de sélectionner des fichiers et dossiers, et de les convertir automatiquement dans un format optimisé pour Claude. En deux clics, tout est dans le presse-papier, prêt à être envoyé à votre IA préférée.

Sous le capot, AiFormat utilise Ink, une chouette librairie pour créer des CLI avec une belle interface utilisateur. Ça vous permet de filtrer et naviguer dans vos fichiers, de les sélectionner avec les flèches, et tout ça de façon super intuitive.

Pour l’installer et le prendre en main, c’est hyper simple, tout est expliqué sur la page Github du projet. Ça commence par un simple :

npm install --global aiformat

Ensuite, pour utiliser aiformat, accédez au répertoire contenant les fichiers et dossiers que vous souhaitez partager avec Claude puis lancez la commande suivante :

aiformat

Le créateur a eu la bonne idée de mettre le projet en opensource (MIT license), du coup n’hésitez pas à y jeter un œil et même contribuer si le cœur vous en dit. La communauté vous dira merci !

Franchement, si vous utilisez souvent Claude pour coder ou analyser des projets, c’est un indispensable à avoir dans sa boîte à outils. Ça vous fera gagner un temps fou au quotidien.