Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Y’a un nouveau soft qui vient de sortir et qui va vous permettre de créer des tunnels réseau virtuellement inarrêtables, où que vous soyez dans le monde. Ça s’appelle onionpipe et ça utilise les adresses Onion de Tor pour faire transiter vos données de manière sécurisée et privée.

Imaginez un peu le truc : vous avez un service perso que vous voulez héberger chez vous mais votre FAI bloque les connexions entrantes ? Ou alors vous avez des clients qui sont derrière des pare-feu restrictifs type WiFi public ? Pas de souci, avec onionpipe votre service n’a pas besoin d’une IP publique pour être accessible ! Vous pouvez publier votre service avec une adresse onion unique et persistante, et donner l’accès de manière sécurisée seulement aux personnes de votre choix.

Le plus cool c’est que vous n’avez pas besoin de faire confiance et de filer vos données persos à des services payants type Tailscale ou ZeroTier. Avec onionpipe, vous gardez le contrôle total !

Concrètement, onionpipe c’est un peu comme socat mais pour les réseaux Tor. Ça met en place des tunnels de transfert de paquets pour faire des redirections de ports. Par exemple vous pouvez exposer le port local 8000 vers une adresse onion temporaire :

onionpipe 8000

Ou alors vers le port 80 d’une adresse onion temporaire en utilisant ~ comme raccourci :

onionpipe 8000~80

Vous pouvez même créer une adresse onion persistante avec un petit nom pour vous y retrouver :

onionpipe 8000~80@my-app

Et réutiliser ce nom dans plusieurs redirections pour faire référence à la même adresse onion. Tiens par exemple on pourrait monter un petit forum web pour un serveur Minecraft :

onionpipe 8000~80@minecraft 25565@minecraft

Toutes les redirections sans nom utilisent la même adresse onion temporaire :

onionpipe 192.168.1.100:8000~80,8080,9000 9090

Vous pouvez aussi exposer un socket Unix vers une adresse onion :

onionpipe /run/server.sock~80

Ou sacrifier un peu la confidentialité réseau contre une latence réduite en publiant un service onion non-anonyme :

onionpipe --anonymous=false 8000

Dans l’autre sens, vous pouvez rediriger le port 80 d’une adresse onion distante vers le port local 80 :

onionpipe xxx.onion:80

Ou vers le port 80 en écoute sur toutes les interfaces, pour exposer publiquement l’accès au service onion :

onionpipe xxx.onion:80~0.0.0.0:80

Pour aller plus loin dans la sécurisation de vos services persos, onionpipe gère aussi l’authentification client. En gros ça permet de n’autoriser l’accès qu’à une liste de clés publiques de votre choix.

Voilà comment ça marche :

Alice génère une nouvelle paire de clés d’authentification client

onionpipe client new alice

Puis Alice partage cette clé publique avec Bob, qui transmet un service en oignon qu’elle seule peut utiliser.

onionpipe --require-auth CLEPUBLIQUEALICE 8000~80@test

Alice utilise alors sa clé privée pour se connecter au service onion de Bob et le rediriger en local

onionpipe --auth alice ADRESSEONIONBOB:80~7000

Et voilà, un canal de communication privé et sécurisé entre Alice et Bob, sans passer par un serveur central 😉

Cerise sur le gâteau, ça s’intègre super facilement avec Docker ! Seule subtilité, comme c’est le conteneur qui fait la redirection, faut ajuster les adresses locales en conséquence. Pour rediriger le port 80 de l’hôte Docker :

docker run --rm ghcr.io/cmars/onionpipe:main host.docker.internal:80

Avec Podman vous pouvez carrément exposer le réseau de l’hôte local :

podman run --network=host --rm ghcr.io/cmars/onionpipe:main 8000

Et comme les adresses de redirection locales sont résolues par DNS, c’est ultra simple de publier des services onion depuis Docker Compose ou Kubernetes. Jetez un œil à cet exemple avec Nextcloud, c’est assez génial !

Merci à Lorenper


La révolution de l’IA est en marche depuis un bon moment maintenant mais faire tourner les derniers modèles de langage comme llama.cpp sur votre bécane, demande de la puissance. C’est là qu’intervient Justine Tunney, hackeuse et ex-programmeuse de chez Google, qui vient de pondre de nouveaux kernels d’algèbre linéaire pour booster les perfs de llama.cpp.

Concrètement, elle a réécrit les routines qui font les multiplications de matrices, c’est à dire les opérations au cœur des réseaux de neurones et en utilisant les dernières instructions vectorielles AVX-512 et ARM dotprod, elle a réussi à multiplier par 5 la vitesse d’exécution sur les processeurs récents d’Intel, AMD et ARM.

Mais ce n’est pas tout, elle a aussi bossé sur l’optimisation mémoire. Fini le temps où les calculs étaient ralentis par les accès à la RAM. Grâce à une utilisation intelligente du cache L2 et du prefetching, elle arrive maintenant à diviser par 2 le temps de chargement des données.

Résultat, llama.cpp et les autres modèles compatibles tournent comme des horloges, même sur des configs modestes. Fini les CUDA cores hors de prix, un bon vieux processeur avec un peu de RAM suffit. De quoi démocratiser l’accès à l’IA sans se ruiner surtout que son code est dispo sur son GitHub. Il est écrit en C++ avec zéro dépendance externe et peut être compilé sur Linux, macOS, Windows, FreeBSD et même SerenityOS.

Mais Justine ne compte pas s’arrêter là. Elle planche déjà sur le support de nouveaux formats de données comme le FP16 et le BF16 pour réduire encore l’empreinte mémoire. À terme, elle espère faire tourner les IA les plus gourmandes sur un Raspberry Pi ! Chouette non ?

D’un côté on a donc les géants comme Nvidia qui misent tout sur leurs accélérateurs graphiques propriétaires et de l’autre les hackers et les libristes qui veulent garder le contrôle de leur machine avec du code ouvert et optimisé.

En attendant, je vous invite à tester ses kernels par vous-même et à voir la différence. C’est peut-être ça le véritable sens du progrès technologique : permettre au plus grand nombre d’accéder à des outils auparavant réservés à une élite.

Source


Ça y est, la vague Rust déferle sur la Silicon Valley et même le géant Google n’y échappe pas ! Le langage de programmation qui monte, qui monte, s’installe peu à peu dans les couloirs de la firme de Mountain View et visiblement, il fait des ravages… mais dans le bon sens du terme !

Lors de la récente conférence Rust Nation UK, Lars Bergstrom, directeur de l’ingénierie chez Google, a lâché une petite bombe : les équipes de dev qui sont passées à Rust ont vu leur productivité doubler par rapport à celles qui utilisent encore C++ !

On savait déjà que Rust était prometteur, avec sa gestion de la mémoire ultra safe et son système de « ownership » qui évite les erreurs de segmentation. Mais de là à imaginer des gains de productivité pareils, personne n’osait en rêver !

Et pourtant, c’est bien réel puisque quand une équipe Google migre un projet C++ vers Rust, elle divise par deux le temps nécessaire pour le développer et le maintenir. C’est énorme ! Surtout quand on sait à quel point le développement en C++ peut être chronophage et complexe. Mais alors comment expliquer un tel boost de performance ?

D’après Lars Bergstrom, c’est très simple : Rust inspire confiance. Les développeurs se sentent plus sereins quand ils codent en Rust, car ils savent que le compilateur va les aider à éviter toute une classe de bugs vicieux liés à la gestion de la mémoire. Résultat, ils passent moins de temps à débugger et plus de temps à ajouter des fonctionnalités. Et ça, c’est bon pour le moral des troupes et pour la vélocité des projets !

Autre avantage de Rust : sa courbe d’apprentissage. Contrairement à ce qu’on pourrait penser, les développeurs Google ne mettent pas des mois à être opérationnels en Rust. En moyenne, il leur faut environ 2 mois pour se sentir à l’aise et 4 mois pour retrouver leur niveau de productivité C++.

C’est sûr, Rust n’est pas le langage le plus simple à prendre en main, avec ses concepts de ownership et de borrowing qui peuvent paraître abstraits au début. Mais une fois franchie cette étape, on découvre un langage puissant, expressif et fiable. Et puis, il faut bien l’avouer, il y a un petit côté « hype » à coder en Rust en ce moment. C’est un langage qui a le vent en poupe et tout le monde en parle !

Source


— Poisson d’avril ! —

Dans une annonce surprenante, le géant chinois Xiaomi a décidé de supprimer la fonctionnalité « Appel » de ses smartphones, affirmant que cette option n’est plus utilisée par la majorité de ses clients. Cette décision radicale a suscité de nombreuses réactions parmi les utilisateurs de la marque.

Xiaomi affirme que les appels passent désormais par les messageries instantanées

Selon un communiqué officiel de Xiaomi, la fonctionnalité « Appel » sera progressivement retirée de tous les modèles de smartphones de la marque à partir de la prochaine mise à jour. L’entreprise justifie cette décision en expliquant que la plupart des utilisateurs préfèrent désormais passer leurs appels via des applications de messagerie instantanée telles que WhatsApp, Facebook Messenger ou encore WeChat.

« Nos études montrent que moins de 5% de nos clients utilisent encore la fonction d’appel classique via le réseau de l’opérateur« , indique le porte-parole de Xiaomi. « Il nous a donc semblé logique de supprimer cette option devenue obsolète afin d’optimiser les performances de nos appareils. »

Des avantages et des inconvénients pour les utilisateurs

Si cette décision peut sembler radicale, Xiaomi met en avant plusieurs avantages pour ses clients. Tout d’abord, la suppression de la fonctionnalité « Appel » permettra de libérer de l’espace de stockage sur les smartphones, offrant ainsi plus de place pour les photos, vidéos et applications. De plus, l’entreprise promet une amélioration significative de l’autonomie de la batterie, les appels via les messageries consommant moins d’énergie que les appels traditionnels.

Cependant, certains utilisateurs s’inquiètent des conséquences de cette décision. En effet, les appels via les messageries nécessitent une connexion internet stable, ce qui n’est pas toujours le cas dans certaines zones géographiques. De plus, les personnes âgées ou moins à l’aise avec la technologie pourraient se retrouver dans l’incapacité de passer des appels depuis leur smartphone Xiaomi.

Vers une suppression de l’application SMS ?

Suite à cette annonce, des rumeurs circulent quant à une possible suppression de l’application SMS dans un futur proche. En effet, Xiaomi aurait également constaté une baisse significative de l’utilisation des SMS au profit des messageries instantanées.

Si cette information venait à se confirmer, cela marquerait un tournant majeur dans l’histoire de la téléphonie mobile. Les smartphones deviendraient alors de véritables « appareils de messagerie », délaissant progressivement les fonctions de communication traditionnelles.

Quoi qu’il en soit, cette annonce a eu l’effet d’une bombe dans le monde de la tech, suscitant de nombreux débats sur l’avenir de la téléphonie mobile et une fool en colère. Reste à voir si d’autres fabricants emboîteront le pas à Xiaomi dans cette « pêche » aux fonctionnalités obsolètes.


Laissez-moi vous parler d’un petit coin de paradis sur la toile qui réchauffe le cœur et l’âme comme un chocolat chaud par un soir d’hiver glacial. Bienvenue sur The Nicest Place on the Internet, le site où la bienveillance et la douceur règnent en maîtres !

Si vous avez passé une journée pourrie, que tout part en cacahuète, que vous êtes au bout du rouleau, ce site vous tend les bras avec une ribambelle de vidéos de parfaits inconnus qui vous font des câlins virtuels. Bon, faudra pas trop vous emballer non plus hein, je n’y suis pas encore, mais y’a un petit côté réconfortant et attachant.

On y trouve des gens de tous horizons : des jeunes, des moins jeunes, des geeks, des mamies, des zombies, des astronautes… Une joyeuse farandole d’humanité qui vous serre dans ses bras numériques avec un sourire jusqu’aux oreilles.

Et vous savez quoi ? Vous aussi vous pouvez participer à cette grande chaîne de l’amour ! Il vous suffit d’enregistrer votre propre vidéo de câlin, de la poster sur YouTube et de l’envoyer au site. Vos bras réconfortants iront alors apporter un peu de chaleur et de réconfort à quelqu’un qui en a bien besoin quelque part sur cette planète.

Alors certes, les grincheux et les rabat-joie diront que tout ça est bien niais et cucul la praline. Mais dans un monde où les réseaux sociaux virent souvent au pugilat généralisé (coucou Twitter !!) et où la bienveillance se fait rare, ce genre d’initiative ne peut pas faire de mal. Au contraire, elle nous rappelle que derrière chaque écran, chaque pseudo, il y a un être humain avec ses hauts, ses bas, et son besoin de connexion et de réconfort.

Donc la prochaine fois que vous avez une petite baisse d’énergie, que les trolls et les haters vous minent le moral, faites un petit détour par The Nicest Place on the Internet et laissez cette vague de douceur et d’humanité vous submerger.