Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Accrochez-vous bien à vos chaises (ou à vos hamacs, je ne juge pas 😉) car des chercheurs en sécurité nous ont encore pondu une nouvelle attaque qui devrait bien faire stresser sur la sécurité de vos CPU !

Oui je sais, on en a déjà vu des vertes et des pas mûres avec Spectre, Meltdown et toute la clique… Mais là, c’est tout aussi lourd. Ça s’appelle GhostRace et ça va vous hanter jusque dans vos cauchemars !

En gros, c’est une variante de Spectre qui arrive à contourner toutes les protections logicielles contre les race conditions. Les mecs de chez IBM et de l’université d’Amsterdam ont donc trouvé un moyen d’exploiter l’exécution spéculative des processeurs (le truc qui leur permet de deviner et d’exécuter les instructions à l’avance) pour court-circuiter les fameux mutex et autres spinlocks qui sont censés empêcher que plusieurs processus accèdent en même temps à une ressource partagée.

Résultat des courses: les attaquants peuvent provoquer des race conditions de manière spéculative et en profiter pour fouiner dans la mémoire et chopper des données sensibles ! C’est vicieux… En plus de ça, l’attaque fonctionne sur tous les processeurs connus (Intel, AMD, ARM, IBM) et sur n’importe quel OS ou hyperviseur qui utilise ce genre de primitives de synchronisation. Donc en gros, personne n’est à l’abri !

Les chercheurs ont même créé un scanner qui leur a permis de trouver plus de 1200 failles potentielles rien que dans le noyau Linux. Et leur PoC arrive à siphonner la mémoire utilisée par le kernel à la vitesse de 12 Ko/s. Bon après, faut quand même un accès local pour exploiter tout ça, mais quand même, ça la fout mal…

Bref, c’est la grosse panique chez les fabricants de CPU et les éditeurs de systèmes qui sont tous en train de se renvoyer la balle façon ping-pong. 🏓 Les premiers disent « mettez à jour vos OS« , les seconds répondent « patchez d’abord vos CPU !« . En attendant, c’est nous qui trinquons hein…

Mais y’a quand même une lueur d’espoir: les chercheurs ont aussi proposé une solution pour « mitiger » le problème. Ça consiste à ajouter des instructions de sérialisation dans toutes les primitives de synchronisation vulnérables. Bon ok, ça a un coût en perfs (5% sur LMBench quand même) mais au moins ça colmate les brèches. Reste plus qu’à convaincre Linus Torvalds et sa bande de l’implémenter maintenant… 😒

En attendant, je vous conseille de garder l’œil sur les mises à jour de sécurité de votre OS et de votre microcode, on sait jamais ! Et si vous voulez en savoir plus sur les dessous techniques de l’attaque, jetez un œil au white paper et au blog des chercheurs, c’est passionnant.

A la prochaine pour de nouvelles (més)aventures !


Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows.

Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de langage open-source directement sur votre machine locale. Genre Mistral, Llama 2 et toute la clique.

Alors, quelles sont les cartes AMD compatibles ?

Pas de panique, je vous ai préparé une petite liste bien détaillée. Dans la famille des Radeon RX, on retrouve les monstres comme les 7900 XTX, 7900 XT, 7800 XT, 6900 XT et compagnie. Pour les pros, la gamme Radeon PRO est aussi de la partie avec les W7900, W6800X Duo, Vega II… Bref, y a du beau monde au rendez-vous. Et si vous êtes un fan des cartes Instinct, pas de jaloux, les MI300X, MI250, MI100 et autres sont aussi supportées.

Ollama promet également que d’autres modèles de cartes graphiques suivront. Alors on croise les doigts et on surveille les annonces comme le lait sur le feu. En attendant, si vous voulez vous lancer dans l’aventure Ollama avec votre carte AMD, c’est simple comme bonjour.

Téléchargez Ollama pour Linux ou Windows, installez le bouzin et hop, vous voilà parés pour faire chauffer votre GPU AMD ! C’est pas beau la vie ? Je vous ai même fait un tutoriel ici !

Allez, je vous laisse, j’ai un rendez-vous urgent avec mon Llama2 uncensored qui me fait de l’œil.

Source


Si vous lisez mon site depuis longtemps, vous savez que j’apprécie tous ces petits projets de DIY (Do It Yourself), alors maintenant qu’on peut y coller un peu d’IA, j’ai l’impression que tout devient possible. Tenez par exemple ce projet baptisé Adeus.

C’est un dispositif portable d’intelligence artificielle open source capable de vous accompagner à chaque instant. Cette technologie, bien plus qu’un simple gadget, deviendra possiblement de standard des années qui arrivent. La preuve avec le succès du Rabbit R1 qui n’a pour d’autres buts que de remplacer les smartphones.

Alors comment fonctionne Adeus ?

Hé bien, ce système se compose de trois éléments clés qui interagissent les uns avec les autres :

Il y a tout d’abord une application mobile / web qui n’est ni plus ni moins qu’une interface qui permet à l’utilisateur d’interagir avec son IA personnelle et ses données par le biais d’un chat.

Côté matos, il y a le dispositif portable qui enregistrera tout ce que l’utilisateur dit ou entend, et l’enverra au backend pour être traité. Pour le moment, c’est possible à déployer sur un Raspberry Pi Zero W ou un appareil CoralAI.

Et ce backend basé sur Supabase, avec sa base de données, sera capable de traiter et stocker les données que nous échangeons avec les LLM (Large Language Model).

Toutefois, pour garantir le respect de nos données et notre propriété intellectuelle, Adeus a choisi la voie de l’open source. Grâce à cette philosophie, il est possible de garder un œil sur le fonctionnement de l’IA et de s’assurer qu’aucun tiers ne peut accéder à notre précieux contenu. Pour un objet à qui on confie toute sa vie perso, je trouve ça plutôt sain.

Pour en savoir plus, vous pouvez consulter la page GitHub d’Adeus qui regorge d’informations détaillées sur le projet.

Merci à Lorenper


Accrochez-vous bien à vos manettes car Google DeepMind vient de dévoiler un truc de dingue qui devrait intéresser le gamers que vous êtes !

Leur nouveau programme d’IA baptisé SIMA (Scalable Instructable Multiworld Agent) est capable d’apprendre à réaliser des tâches dans une multitude de jeux vidéo, juste en suivant des instructions en langage naturel.

Nvidia avait déjà fait fort l’année dernière en annonçant une techno pour créer des PNJ dotés d’une IA générative capable de discuter en temps réel avec les joueurs. Mais SIMA pousse le concept encore plus loin en acquérant carrément des compétences de joueur humain. Voilà qui promet des parties multijoueurs d’un nouveau genre !

Pour entraîner leur agent, les chercheurs de DeepMind ont collaboré avec huit studios de développement, dont des pointures comme Hello Games (No Man’s Sky) ou Coffee Stain (Valheim). Ils ont ainsi pu plugger SIMA dans des jeux aussi variés que la sandbox spatiale No Man’s Sky, le jeu de destruction créative Teardown ou même le totalement barré Goat Simulator 3 que mes enfants adorent (bêêê !). De quoi lui faire découvrir un max d’environnements interactifs et lui apprendre tout un tas de skills, de la simple navigation dans les menus jusqu’au pilotage de vaisseau ou au craft d’équipements.

Le plus fort, c’est que SIMA n’a pas besoin d’accéder au code source des jeux ni à des API spécifiques. Il lui suffit de deux inputs : le flux d’images à l’écran et des instructions basiques en langage naturel fournies par l’utilisateur. Avec ça, il est capable de prendre le contrôle du personnage principal via des commandes clavier/souris pour réaliser les actions demandées.

Autrement dit, SIMA interagit avec les jeux exactement comme un joueur humain ! C’est fou !

Pour l’instant, l’agent IA maîtrise environ 600 compétences de base : tourner à gauche, grimper à une échelle, ouvrir la carte… Mais il n’est pas encore capable de réaliser des tâches plus stratégiques nécessitant de la planification, comme trouver des ressources pour construire un camp de base. Mais les chercheurs de DeepMind comptent bien l’entraîner pour y parvenir. L’idée, c’est de combiner la puissance des grands modèles de langage (LLM), qui excellent pour générer des connaissances et des plans, avec un agent capable de passer à l’action de manière autonome.

Les tests réalisés montrent d’ailleurs que SIMA est bien plus performant quand il a été entraîné sur un ensemble de jeux que sur un seul. Mieux, un agent formé sur 8 jeux mais pas sur le 9ème se débrouillera presque aussi bien sur le 9ème, qu’il n’a jamais vu, qu’un agent IA spécialisé.

SIMA est donc capable de développer des capacités de généralisation au-delà de son entraînement initial. C’est hyper prometteur même s’il va encore falloir bosser pour qu’il atteigne le niveau des vrais joueurs. Vos streamers Twitch préférés ne sont pas encore tous au chômage, je vous rassure !

Les résultats de SIMA ouvrent en tout cas la voie vers une nouvelle génération d’agents IA généralistes et pilotés par le langage. En les exposant à un maximum d’environnements et en les dotant de modèles toujours plus avancés, DeepMind espère les rendre plus polyvalents et capables de réaliser des tâches de plus en plus complexes, aussi bien dans les univers virtuels que dans le monde réel.

Imaginez un peu les possibilités : un agent IA qui pourrait vous servir de bon pôte dans vos jeux préférés mais aussi vous assister dans plein de tâches du quotidien, juste en lui parlant ! J’imagine également que l’armée américaine s’en frotte déjà les mains…. gloups !

En attendant de pouvoir tester tout ça, je vous recommande de garder un œil sur les travaux de DeepMind, qui sont en train de repousser les limites de ce qui est possible avec l’IA. Et si vous avez envie de vous essayer à la création de PNJ « intelligents », jetez aussi un œil au projet « ACE for Games » de Nvidia, c’est assez bluffant !

Quoiqu’il en soit, ça promet en tout cas de sacrées parties multijoueurs dans les années à venir, avec des bots toujours plus crédibles pour peupler les mondes virtuels et interagir avec nous. Mais n’ayez crainte, même si ces IA font des progrès fulgurants, je pense qu’on est encore loin du jour où elles pourront nous botter les fesses sur nos jeux préférés. Enfin, vu comme je suis une quiche en jeu, mes fesses c’est possible mais pour les autres, vous restez les meilleurs quand il s’agit de faire preuve de créativité et de sens tactique.

Source


Accrochez-vous bien à votre clavier parce que je vais vous parler du film le plus attendu de 2024 : The Crow, le reboot signé Rupert Sanders avec dans le rôle titre Bill Skarsgård, alias Ça le clown flippant, ainsi que la chanteuse FKA Twigs que je ne connaissais pas y’a encore 40 secondes de ça.

Alors préparez les pop-corns, enfilez votre plus beau maquillage gothique et écoutez-moi bien. L’histoire, vous la connaissez si vous avez vu le film culte de 1994 avec le regretté Brandon Lee (paix à son âme 🙏) : Eric Draven et sa fiancée Shelly se font sauvagement assassiner la veille de leur mariage. Sauf que voilà, un an après, Eric revient d’entre les morts, guidé par un mystérieux corbeau, pour accomplir sa vengeance…

Bon, le pitch de base n’a pas changé, mais Sanders nous promet une version plus sombre, plus brutale, carrément dans l’esprit d’un Taxi Driver ou des films de John Woo. Il parle même d’une « romance noire » qui explore le deuil, la perte et le voile éthéré entre la vie et la mort. Tout un programme !

Rupert Sanders aux manettes, c’est quand même le gars derrière le superbe Ghost in the Shell avec Scarlett Johansson. Alors on peut s’attendre à une claque visuelle, surtout qu’il promet une ambiance à la The Cure. Les décors brumeux de Prague et la BO mélancolique devraient retranscrire parfaitement l’univers déchirant du comic original de James O’Barr.

La bande-annonce donne clairement le ton avec un Eric Draven méconnaissable, le visage barbouillé de maquillage blanc façon Jour des Morts, qui distribue des mandales et encaisse les balles comme un surhomme. Entre deux bastons ultra-violentes, on entrevoit sa relation tragique avec Shelly, incarnée par FKA Twigs. Ses yeux de biche apeurée et sa moue de bad girl promettent une interprétation intense.

On va pas se mentir, Bill Skarsgård a clairement la lourde tâche de marcher dans les traces de Brandon Lee. Mais après avoir terrorisé une génération de gamins en Grippe-Sou (le clown dans Ça, faut suivre un peu !), nul doute que son charisme magnétique et torturé fera des étincelles. Le réalisateur insiste bien sur le fait que l’âme de Lee est toujours présente dans le film. On interprétera ça comme on voudra, hein…

Côté casting, on retrouve aussi Danny Huston, le neveu de Jack Nicholson himself.

Bon après, on a flippé un peu vu le parcours chaotique du projet durant 15 ans. Entre les réalisateurs qui se sont succédés (Stephen Norrington, F. Javier Gutiérrez, Juan Carlos Fresnadillo…), la valse des acteurs pressentis pour incarner Eric (Tom Hiddleston, Luke Evans, Nicholas Hoult, Jack Huston ou encore Jason Momoa) et la bataille judiciaire autour des droits, j’ai bien cru que le reboot ne verrait jamais le jour !

Mais cette fois, ça y est, le tournage est bouclé et le corbeau est fin prêt à déployer ses ailes le 7 juin 2024 dans les cinémas américains. On a hâte de découvrir la vision de Sanders qui s’annonce comme un véritable hommage à Brandon Lee et au comic underground de James O’Barr.

Espérons que ce reboot soit à la hauteur !

Source