Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Si comme moi, vous adorez souiller les conditions générales des services de Gougleu, Twitter ou encore TikTok alors vous allez kiffer Cobalt.

Il s’agit d’un service en ligne super minimaliste qui permet de récupérer à partir d’un simple lien, au choix, la vidéo ou l’audio. Pratique pour ensuite bidouiller la vidéo d’origine ou se faire un petit MP3.

Avec son bouton « auto », vous laissez Cobalt choisir le meilleur pour vous, ou alors prenez le contrôle et ajustez les réglages comme un vrai chef.

L’interface est très simple et il n’y a pas grand chose mais si vous allez dans les paramètres (Settings), vous verrez qu’il est possible de préciser la qualité à récupérer ainsi que le format de la vidéo (h264, av1, vp9), mais également de retirer les watermarks des vidéos TikTok ou de convertir les vidéos Twitter en .gif. Fini les filigranes agaçants et bonjour les boucles parfaites pour vos memes et partages.

Vous avez même la possibilité de choisir entre le téléchargement progressif, qui utilise directement le CDN de Vimeo pour une qualité max de 1080p, ou l’option « dash », qui combine vidéo et audio en un seul fichier pour une qualité max de 4K. Le choix est royal : du 360p pour les connexions qui rament aux splendeurs du 8K pour les mirettes exigeantes.

Bref, c’est que du bonheur ! A mettre dans vos bookmarks de toute urgence.

Merci à Lorenper


Vous pensiez que votre GPU était à l’abri des regards indiscrets ? Que nenni damoiseaux zé demoiselles !!!

Une équipe de chercheurs vient de mettre en lumière des failles béantes dans la sécurité de l’API WebGPU, cette technologie qui booste les performances graphiques de nos navigateurs.

D’après cette étude, ces vulnérabilités permettraient à des scripts malveillants d’exploiter les canaux auxiliaires du GPU pour siphonner des données sensibles, comme vos mots de passe ou vos clés de chiffrement. Rien que ça ! 😱 Concrètement, les chercheurs ont réussi à monter ces attaques par canaux auxiliaires en fonction du temps et de l’état du cache du GPU, le tout depuis un simple navigateur web.

En analysant finement l’impact de différentes charges de travail sur les performances du processeur graphique, ils sont parvenus à en déduire des informations sur les autres processus utilisant cette ressource qui est, vous vous en doutez, partagée. Et c’est là qu’est le problème.

Le plus inquiétant, c’est que leur proof of concept se résume à du code JavaScript tout ce qu’il y a de plus basique. Pas besoin d’avoir accès au PC, un site web malveillant peut très bien faire l’affaire. De quoi donner des sueurs froides aux éditeurs de navigateurs… Rassurez-vous, je ne compte pas l’intégrer sur Korben.info, la bouffe n’est pas assez bonne en prison ^^.

Pour l’instant, à part Mozilla qui a publié un bulletin d’avertissement, les principaux acteurs comme Google ou Microsoft n’ont pas réagi. Bouuuuh ! Ils estiment sans doute que le jeu n’en vaut pas la chandelle et préfèrent miser sur les gains de performances de WebGPU plutôt que de s’embarrasser avec des demandes d’autorisations qui gâcheraient l’expérience utilisateur.

Pourtant, les chercheurs sont formels, les sociétés qui conçoivent des navigateurs doivent traiter l’accès au GPU avec la même rigueur que les autres ressources sensibles comme la caméra ou le micro. Sinon, gare aux dérives ! On peut imaginer des utilisateurs qui se font piller leurs cryptomonnaies pendant qu’ils surfent innocemment, ou pire, des fuites de données à grande échelle orchestrées depuis des sites en apparence légitimes.

Avec ça, le bandeau RGPD peut aller se rhabiller ^^/

Rassurez-vous, pour le moment, WebGPU est activé par défaut uniquement dans Chrome et ses dérivés. Pour Firefox, c’est encore seulement dans les versions Nightly (mais ça arrive bientôt). Je vous laisse tester votre navigateur avec le proof of concept dont je vous parlais un peu plus haut.

Bref, cette étude a le mérite de lancer le débat sur les implications sécuritaires des API web de plus en plus intrusives. À l’heure où le GPU s’impose comme une ressource de calcul incontournable, y compris pour des tâches sensibles, la question de son isolation et de la maîtrise des accès devient cruciale.

Bref, on réfléchira à deux fois avant d’autoriser l’accès au GPU sur un site louche… 😉

Source


FeatUp, c’est le nom de ce nouvel algorithme révolutionnaire développé par une équipe de chercheurs du MIT dont le but consiste à faire passer la vision par ordinateur à la vitesse supérieure en lui offrant une résolution digne d’un œil de lynx.

Comment ça marche ? En gros, FeatUp s’attaque au problème de la perte d’information qui se produit quand les algorithmes d’IA analysent une image. Normalement, ils la découpent en une grille de petits carrés de pixels qu’ils traitent par groupe. Résultat, la résolution finale est bien plus faible que l’image de départ. Avec FeatUp, fini la myopie ! L’algo est capable de capter tous les détails, des plus évidents aux plus subtils.

La clé, c’est de faire légèrement bouger et pivoter les images pour voir comment l’IA réagit à ces micro-variations. En combinant des centaines de « cartes de caractéristiques » ainsi générées, on obtient un ensemble de données haute définition super précis. Un peu comme quand on crée un modèle 3D à partir de plusieurs images 2D sous différents angles.

Mais pour que ça turbine, il a fallu créer une nouvelle couche de réseau de neurones ultra-efficace, baptisée « suréchantillonnage bilatéral conjoint« . Grâce à elle, FeatUp améliore les performances d’un tas d’algos différents, de la segmentation sémantique à l’estimation de profondeur.

Les applications potentielles sont dingues : imaginez pouvoir repérer un minuscule panneau sur une autoroute encombrée pour une voiture autonome, ou localiser précisément une tumeur sur une radio des poumons. Avec sa capacité à transformer des suppositions vagues en détails précis, FeatUp pourrait rendre tous ces systèmes bien plus fiables et sûrs.

L’objectif des chercheurs, c’est que FeatUp devienne un outil fondamental du deep learning, pour enrichir les modèles sans sacrifier l’efficacité. Comme le résume Mark Hamilton, co-auteur de l’étude, l’enjeu est d’obtenir « le meilleur des deux mondes : des représentations très intelligentes avec la résolution de l’image d’origine« .

Bref, si FeatUp tient ses promesses, on n’a pas fini d’entendre parler de cette prouesse technologique qui pourrait donner un sacré coup de boost à l’IA visuelle puisqu’elle fournit des versions haute résolution d’analyses d’images qu’on pensait jusque-là limitées à la basse résolution. »

Pour en savoir plus, direction l’article du MIT !


Accrochez-vous à vos volants, les fans de Mad Max, car ça va déménager grave !

Le méga projet de prequel Furiosa est enfin terminé et ça promet un max de fureur et d’action. Moi qui avais adoré Mad Max: Fury Road, je piaffe d’impatience (oui, parfois, je « piaffe », tu vas faire quoi ???) de découvrir ce nouveau volet réalisé par le génial George Miller.

Alors, qu’est-ce qu’on sait sur ce Furiosa ?

Déjà, exit Charlize Theron, c’est la talentueuse Anya Taylor-Joy (vue dans The Queen’s Gambit) qui reprend le rôle titre. Et à ses côtés, on aura droit à Chris Hemsworth (aka Thor) et Tom Burke. Ça envoie du lourd !

Côté intrigue, le film nous plongera dans la jeunesse de Furiosa, bien avant qu’elle ne devienne l’impitoyable guerrière de Fury Road. On découvrira comment elle a été arrachée à la Terre Verte des Mères puis est tombée entre les griffes de Dementus, un terrible seigneur de guerre. Avant de chercher à rentrer chez elle à travers les Terres Dévastées. Un périple initiatique qui s’annonce intense !

Niveau technique, George Miller s’est entouré de pointures, comme la monteuse Margaret Sixel, la costumière Jenny Beavan ou le chef décorateur Colin Gibson, tous oscarisés pour leur travail dantesque sur Fury Road. Et le compositeur Junkie XL rempile aussi. Autant dire qu’on peut s’attendre à un résultat visuel et sonore d’anthologie.

Ces premières images montrent des décors et des véhicules hallucinants, dans la droite lignée de l’esthétique post-apo délirante de la franchise. J’ai hâte de voir ça sur grand écran (dans mon salon, tkt) !

Il va donc falloir ronger votre frein jusqu’en mai 2024 pour découvrir Furiosa. Le film devrait faire l’événement au Festival de Cannes, 9 ans tout pile après le triomphe de Fury Road. Ça va être long, mais je sens que ça valait le coup d’attendre !

Ce Furiosa s’annonce peut-être encore plus dingue et mémorable que Fury Road. Avec George Miller aux manettes et un casting cinq étoiles, tous les voyants sont au vert (fluo). Et ces premières images me mettent bien l’eau à la bouche.

Vivement !


Vous pensiez qu’Apple se contentait de suivre les autres géants de la tech en matière d’intelligence artificielle ? Détrompez-vous ! La firme de Cupertino vient de dévoiler les secrets de son nouveau modèle d’IA baptisé MM1, et croyez-moi, ça décoiffe grave !

Alors que Google mise sur son modèle Gemini pour booster les fonctionnalités IA d’iOS 18, Apple a décidé de tracer sa propre route avec MM1. L’idée de génie ? Utiliser un dataset diversifié qui mélange allègrement du texte et des images pour entraîner cette IA nouvelle génération.

Résultat, MM1 est capable de générer des légendes pour des images de manière hyper précises, de répondre à des questions posées sur des images et même d’inférer du langage naturel à partir d’indices linguistiques et visuels. Une vraie bête de compétition !

En combinant différentes méthodes d’entraînement issues d’autres IA avec ses propres techniques maison, Apple espère ainsi rattraper son retard sur des mastodontes comme Google ou OpenAI. Et vu le niveau de performances annoncé, y a de quoi être optimiste !

Alors comment ça fonctionne ?

Et bien si vous montrez une photo de votre chat à MM1, non seulement il sera capable de le reconnaître et de le décrire avec une précision redoutable, mais il pourra aussi répondre à des questions du genre « De quelle couleur est son collier ? » ou « A-t-il l’air joueur ou paresseux sur cette image ?« .

Dans l’exemple réel ci-dessous, on lui demande combien il devra payer pour les bières (photo 1) d’après le menu (photo 2). Et c’est le seul à répondre correctement, et précisemment.

Bluffant, non ?

Et ce n’est qu’un exemple parmi d’autres. Apple étant Apple, on peut s’attendre à ce que MM1 révolutionne notre façon d’interagir avec nos devices. Pourquoi pas imaginer une app qui génère automatiquement la description textulle d’une scène que vous auriez photographié ? Ou un mode « sous-titres » universel qui retranscrirait en temps réel tout ce que votre iPhone voit et entend ? Les possibilités sont infinies dès que l’IA est embarquée !

Bien sûr, tout cela n’est encore qu’à l’état de recherche pour le moment. Mais connaissant Apple, on peut parier que la firme mettra rapidement en application les promesses de MM1 dans ses futurs produits et services. iOS 19 propulsé par une IA multimodale surpuissante, ça envoie du rêve, je ne vous le cache pas.

Avec MM1, Apple prouve une fois de plus sa capacité à innover. Pendant que les autres géants de la Silicon Valley se contentent d’améliorer leurs modèles existants, la marque à la pomme préfère partir d’une feuille blanche pour inventer l’IA de demain. Comme dirait l’autre, « think different », ça a du bon ! 😎

Alors, vous en pensez quoi de ce MM1 ? Hâte de voir ce qu’Apple nous réserve pour la suite.

Perso, j’ai déjà hâte de discuter avec mon iPhone comme s’il était mon meilleur pote. Au moins, j’aurais un pote ^^.

Source