Aller au contenu
Korben, roi d’internet, logo bébé avec des lunettes en mode thug life

Avis aux créatifs de tout poil : WeTransfer vient de sortir l’artillerie lourde pour vous faciliter la vie ! Fini le temps où vous deviez courir après vos paiements comme un poulet sans tête puisque maintenant, vous allez pouvoir vendre vos petites merveilles directement sur la plateforme. C’est ti pas beau ça ?

En effet, ces derniers ont intégré un paiement via Stripe (il vous faudra donc un compte Stripe), ce qui permet à n’importe qui de recevoir son dû en un clin d’œil, sans se prendre la tête avec des changements de devises. Et si vous êtes abonné payant à WeTransfer vous n’aurez pas de frais supplémentaires, à part les frais de traitement des paiements standards de Stripe. Pour les autres, pas de panique, vous aurez un accès gratuit aux paiements intégrés sans frais de plateforme supplémentaires jusqu’à fin juin, ce qui permettra de tester. Et après, faudra raquer un peu.

Le fonctionnement est simple comme bonjour :

  1. Connectez-vous à votre compte WeTransfer
  2. Sélectionnez et uploadez le fichier que vous souhaitez vendre
  3. Dans la section « Demander un paiement« , fixez un prix en entrant un montant en euros.
  4. Partagez le lien WeTransfer avec votre client par email, réseaux sociaux ou tout autre canal de communication
  5. Quand votre client clique sur le lien et télécharge le fichier, il devra d’abord soumettre un paiement. Vous pouvez suivre les paiements et gains dans votre compte.

Pour voir ce que ça donne, je vous ai mis un fichier surprise à 20 balles. Ne l’achetez pas.

En tout cas, moi je trouve ça super malin de leur part. WeTransfer est en train de se positionner comme le meilleur ami des créatifs, en leur offrant une solution simple et efficace pour monétiser leur travail, comme ça fini le temps des galères, des paiements en retard et des nuits blanches à se demander si on va pouvoir payer le loyer. Maintenant, on upload, on vend, et on passe à autre chose !

Si tu payes pas, t’as pas le livrable. Simple, basique.

Source



J’espère que vous êtes bien installés dans votre cockpit, parce que GitHub nous a reservé une sacrée surprise : Copilot Workspace, un environnement de développement nouvelle génération entièrement propulsé par l’IA.

Vous connaissez sûrement déjà GitHub Copilot, ce fidèle acolyte qui nous assiste depuis l’année dernière en nous soufflant des suggestions de code directement dans votre IDE, et bien avec Copilot Workspace, GitHub veut carrément révolutionner la façon de concevoir des logiciels.

L’idée est simple : vous exprimez ce que vous voulez faire en langage naturel, comme si vous discutiez avec votre pote développeur et Copilot Workspace vous aide à transformer votre concept en réalité, étape par étape.

Par exemple, si vous avez une idée de fonctionnalité à ajouter à votre projet, vous ouvrez Copilot Workspace, vous saisissez une description de ce que vous voulez faire, et hop ! L’IA analyse votre requête, génère un plan d’action détaillé, et vous guide tout au long du processus de développement.

Brainstorming, planification, implémentation, tests… Chaque phase est assistée par Copilot Workspace qui vous fera des suggestions, répondra à vos questions, et automatisera un maximum de tâches fastidieuses, le tout de manière transparente et collaborative.

Le top du top, c’est que tout est « steerable » comme ils disent chez GitHub. Cela veut dire que vous gardez le contrôle à tout moment et chaque suggestion de l’IA peut être affinée, modifiée ou rejetée selon vos désirs. Bref, vous restez le pilote et Copilot n’est que votre copilote (et gardez votre culotte) !

D’ailleurs, Copilot Workspace vous permet d’orienter le système via le langage naturel à 2 endroits : en modifiant la spécification (une description de la base de code actuelle et de l’état souhaité) et en modifiant le plan (une liste d’actions à entreprendre dans chaque fichier). Cela vous permet de guider le système vers la solution que vous souhaitez mettre en œuvre. Cette capacité de pilotage est essentielle, car elle permet aux développeurs de dépasser les limites de la taille des suggestions, en imitant la façon dont ils travaillent sur des problèmes réels. Cela se traduit par un code généré plus précis et plus facile à évaluer.

Une fois votre code écrit, vous pouvez le valider et l’exécuter directement dans l’environnement, histoire de vérifier que tout roule comme sur des roulettes. Chaque Copilot Workspace permet une synchronisation en direct avec les Codespaces, ce qui vous permet d’ouvrir un terminal, d’installer des dépendances et d’exécuter votre code directement depuis l’espace de travail. Et si vous avez besoin d’outils plus avancés, hop, vous basculez dans un Codespace pour retrouver une expérience d’IDE complète dans le cloud, avec un serveur exécutant VS Code.

Côté collaboration, vous pouvez partager un instantané de votre Workspace avec vos petits camarades en un clic, pour recueillir leur feedback ou les laisser expérimenter leurs propres idées. S’ils font partie de la preview technique, ils pourront même forker votre Workspace et itérer dessus. Par contre, si vous apportez des modifications à votre Workspace après l’avoir partagé, ces changements ne seront pas reflétés dans la version partagée. Il faudra alors partager un nouveau lien pour transmettre la dernière mouture.

Et le plus chouette, c’est que Copilot Workspace est accessible de partout, même depuis votre smartphone. Comme ça, la prochaine fois que vous avez une illumination en faisant vos courses, vous pourrez directement la prototyper depuis le rayon fromages du supermarché !

Avec cette annonce, GitHub affiche clairement son ambition : démocratiser le développement logiciel en le rendant plus intuitif, plus naturel, plus humain en somme. Leur vision à long terme c’est un monde où tout le monde peut coder aussi simplement qu’on fait du vélo et je dois dire que je suis plutôt emballé par cette perspective puisque je fonctionne déjà comme ça pour mes projets de dev grâce notamment à Cursor.

Sous le capot, Copilot Workspace est propulsé par le modèle GPT-4 Turbo, que les équipes de GitHub ont jugé le plus performant pour cette tâche après avoir testé de nombreuses alternatives. D’ailleurs, c’est intéressant de comparer Copilot Workspace avec les autres fonctionnalités de la gamme Copilot.

Là où Copilot vous aide à écrire du code en faisant des suggestions au fur et à mesure que vous tapez, et où Copilot Chat permet de discuter des changements potentiels, Copilot Workspace est un véritable environnement de développement orienté tâches, qui planifie et rédige des modifications coordonnées sur plusieurs fichiers. Chacun de ces outils a son utilité, et ils se complètent à merveille.

GitHub a surtout compris l’importance d’impliquer les développeurs dans cette aventure. C’est pour ça qu’ils lancent Copilot Workspace en technical preview, histoire de recueillir un maximum de feedback et d’itérer en fonction. Si ça vous tente de jouer les beta-testeurs, c’est par ici pour vous inscrire !

Source


Vous connaissez tous notre amie Hadopi, cette bonne vieille haute autorité qui veille au grain sur les internets français pour protéger les pauvres ayants droits en coupant la connexion des vilains pirates que vous êtes ?

Et bien figurez-vous que ces joyeux drilles viennent de se voir offrir un joli cadeau par la Cour de justice de l’Union européenne (CJUE).

Anéfé, la Cour vient de rendre un arrêt le 30 avril 2024 qui inverse sa précédente jurisprudence sur la question de l’accès aux données personnelles des internautes, et notamment aux fameuses adresses IP.

Avant, c’était motus et bouche cousue, seuls les cas de criminalité grave pouvaient justifier qu’on aille fouiner dans ces données sensibles. Mais maintenant, la CJUE autorise, sous certaines conditions, l’accès massif et automatisé à l’adresse IP associée à l’identité civile et au contenu d’une communication, sans contrôle préalable systématique par un juge ou une autorité administrative indépendante. C’est une sérieuse entaille dans le mur de la vie privée en ligne.

Hadopi est aux anges, forcément. Elle va pouvoir traquer plus facilement les vilains pirates, même si un contrôle judiciaire reste nécessaire dans certains cas. Un petit coup de fil aux FAI, et hop, voilà toutes les infos perso sur qui télécharge quoi.

Big Brother is watching you, comme dirait l’autre.

Alors OK, officiellement, c’est pour la « bonne » cause, lutter contre le piratage, tout ça mais on sait bien comment ça marche. Aujourd’hui, on autorise l’accès à votre nom, prénom et le contenu qui enfreint la loi, et demain, ce sera d’autres infos plus sensibles. D’autant que la CJUE dit aussi que bon, si les États ne jouent pas le jeu et n’appliquent pas ses décisions, elle finira par céder. C’est un peu con pour une institution censée faire respecter le droit.

Bref, c’est un coup dur pour l’anonymat en ligne, même s’il ne disparaît pas totalement. Ça risque de faire tache d’huile. Les assoces comme La Quadrature du Net sont déjà sur le pied de guerre, mais le mal est fait. Va falloir croiser les doigts pour que ça ne donne pas trop d’idées à nos chers dirigeants…

En attendant, un conseil : soyez prudents. Évitez de trop en faire sur les réseaux P2P, chiffrez vos données, sécurisez vos connexions…etc. Et si vous voulez en savoir plus sur le sujet et soutenir ceux qui se battent, allez faire un tour sur le site de la Quadrature, c’est toujours instructif.


Vous pensiez que Wikipedia était un havre de savoir libre et ouvert à tous ?

Détrompez-vous ! En Russie, le gouvernement vient de frapper un grand coup en clonant l’encyclopédie collaborative pour en faire une version légèrement différente, histoire de réécrire l’Histoire à sa sauce.

Fini Wikipedia, place à Ruviki ! Enfin quand je dis Ruviki, c’est en fait une version modifiée de Wikipedia en russe (Wikipedia RU) mais sans les articles qui dérangent. Bref, appelez ça comme vous voulez, le principe reste le même : on prend l’encyclopédie, on vire tout ce qui nous plaît pas, et voilà, on a une Wikipedia sous stéroïdes made in Kremlin. Pratique.

Concrètement, ce projet Ruviki a été initié par Vladimir Medeyko, président de Wikimedia.ru (la version russe de la Wikimedia Foundation). Les articles sur les « agents étrangers » (comprenez tous ceux qui osent émettre une opinion sur le gouvernement sans être sponsorisés par Poutine himself), les scandales impliquant des représentants du gouvernement ou encore les rapports sur la torture dans les prisons russes ont comme par magie disparu ! Pouf ! Envolés les « détails » qui fâchent.

Mais le plus drôle dans l’histoire, c’est que même les articles sur des sujets à priori sans rapport y passent. Prenez par exemple l’article sur « 1984 » de George Orwell. Bizarrement, toute mention du « Ministère de la Vérité », l’institution chargée de la propagande et de la réécriture de l’Histoire dans le roman, s’est volatilisée de Ruviki. Étonnant, non ?

Et ne croyez pas que seuls quelques articles sont concernés. D’après une analyse du chercheur Constantine Konovalov, ce sont plus de 200 000 caractères qui ont été modifiés ou supprimés dans les articles sur la liberté d’expression, 150 000 sur les droits humains, 96 000 sur les prisonniers politiques et 71 000 sur la censure. Ça en fait de la réécriture !

Le plus ironique dans tout ça, c’est que les autorités russes présentent ce Ruviki comme une version « fiable » et « neutre » de Wikipedia. Ben voyons… C’est sûr que quand on vire tout ce qui nous arrange pas, ça devient vite plus « neutre ». Dans le genre révision historique de niveau olympique, on n’a pas fait mieux depuis l’invention du correcteur liquide.

Et comme si ça suffisait pas, la véritable Wikipedia en russe est désormais bannie en Russie. Circulez, y a plus rien à voir ! Seule la version tronquée made in Kremlin est autorisée. C’est ballot, les Russes vont devoir se contenter d’une réalité quelque peu… alternative.

Mais bon, après tout, c’est pas comme si la Russie était réputée pour sa transparence, sa liberté d’expression et son amour de la vérité vraie. Alors une encyclopédie sous contrôle étatique, c’est bien pratique pourj le gouvernement qui ne fera plus de nuits blanches en se demandant si un article compromettant va être publié.

La prochaine fois que vous consulterez Wikipedia, ayez une petite pensée pour nos amis Russes qui, eux, devront se contenter de la version caviardée… (et c’est pas du Beluga)

Source


Vous avez entendu parler de GPT2-chatbot ?

C’est un modèle de langage un peu mystérieux, accessible uniquement sur le site https://chat.lmsys.org, qui semble avoir des super pouvoirs dignes de ChatGPT. Mais attention, suspense… Personne ne sait d’où il sort ! Ce chatbot anonyme fait tourner les têtes cette semaine après être devenu disponible sur un important site de référence pour les grands modèles de langage, LMSYS Org. Beaucoup considèrent qu’il a à peu près les mêmes capacités que GPT-4 d’OpenAI, ce qui le place dans une rare catégorie de modèles d’IA que seule une poignée de développeurs dans le monde a pu atteindre.

Quand on lui pose la question, ce petit malin de GPT2-chatbot clame haut et fort qu’il est basé sur l’archi de GPT-4 sauf que voilà, ça colle pas vraiment avec son blaze GPT-2…

Les communautés d’IA en ligne se sont emballées au sujet de l’anonyme gpt2-chatbot. Un utilisateur de X affirme que gpt2-chatbot a presque codé un clone parfait du jeu mobile Flappy Bird. Un autre utilisateur de X dit qu’il a résolu un problème de l’Olympiade internationale de mathématiques en un seul coup. Sur de longs fils Reddit, les utilisateurs spéculent sauvagement sur les origines de gpt2-chatbot et se disputent pour savoir s’il provient d’OpenAI, de Google ou d’Anthropic. Il n’y a aucune preuve de ces affirmations, mais les tweets de Sam Altman, PDG d’OpenAI, et d’autres cadres n’ont fait que jeter de l’huile sur le feu.

Du coup, les théories vont bon train. Certains pensent que c’est un coup fourré d’OpenAI, qui l’aurait lâché en mode ninja sur le site de LMSYS pour tester un nouveau modèle en douce, possiblement GPT-4.5 ou GPT-5. D’autres imaginent que c’est LMSYS qui a bidouillé son propre chatbot et qui lui a bourré le crâne avec des données de GPT-4 pour le rendre plus savant que Wikipédia. LMSYS Org a précisé dans un tweet lundi, en réponse à un fil sur gpt2-chatbot, que certains développeurs de modèles d’IA peuvent tester des modèles inédits anonymes avant une diffusion plus large, ce qui a conduit beaucoup à penser que gpt2-chatbot est un modèle anonyme d’un grand développeur d’IA.

Moi, je pencherais plutôt pour la première hypothèse. Pourquoi ? Et bien ce GPT2-chatbot partage des caractéristiques bien spécifiques avec les modèles d’OpenAI, comme l’utilisation du tokenizer maison « tiktoken » ou encore une sensibilité toute particulière aux prompts malicieux.

Au travers de mes propres tests réalisés hier soir, j’ai pu constater que les différences entre GPT2-chatbot et GPT-4 étaient assez subtiles. Les textes générés par GPT2-chatbot sont effectivement mieux construits et de meilleure qualité. Lorsque j’ai demandé à Claude (un autre assistant IA) de comparer des textes produits par les deux modèles, c’est systématiquement celui de GPT2-chatbot qui ressortait gagnant. D’autres tests ont également révélé que gpt2-chatbot a des capacités similaires aux principaux modèles d’IA d’Anthropic et d’OpenAI. Il a montré un comportement exclusif aux modèles de langage avancés, raisonnant bien et décrivant des plans détaillés pour des tâches compliquées.

Ma théorie personnelle est donc qu’il s’agit bien d’une nouvelle version améliorée de ChatGPT mais je ne pense pas qu’on soit déjà sur du GPT-5. Plutôt du GPT-4.5 grand maximum car les progrès, bien réels, ne sont pas non plus renversants. C’est plus une évolution subtile qu’une révolution.

Les internautes ont aussi leurs hypothèses. Certains imaginent que GPT2-chatbot pourrait en fait être un petit modèle comme GPT-2 (d’où son nom) mais boosté avec des techniques avancées comme Q* ou des agents multiples pour atteindre le niveau de GPT-4. D’autres pensent qu’OpenAI teste en secret une nouvelle architecture ou un nouvel algorithme d’entraînement révolutionnaire permettant d’obtenir les performances de GPT-4 avec un modèle compact. Les plus optimistes voient même en GPT2-chatbot les prémices de l’AGI ! Un professeur d’ingénierie informatique de l’université du Wisconsin a constaté que gpt2-chatbot pouvait effectuer une tâche que d’autres modèles d’IA de pointe ne pouvaient pas réaliser, en résolvant une énigme mathématique nécessitant l’apprentissage de règles implicites, là où l’IA peine habituellement.

Prêt à tester les talents cachés de GPT2-chatbot ?

Alors direction https://chat.lmsys.org, sélectionnez « gpt2-chatbot », cliquez sur « Chat » et c’est parti mon kiki !

Vous avez droit à 8 messages gratos en mode « tchatche directe » et après, faut passer en mode « Battle » pour continuer à jouer. Un petit conseil : pensez à repartir d’une page blanche en cliquant sur « New Round » à chaque fois que vous changez de sujet, sinon il risque de perdre le fil.

On verra bien dans quelques semaines quelle théorie sortira gagnante de ces discussions. Il y a très peu d’informations disponibles sur gpt2-chatbot pour l’instant mais il semble clair qu’un acteur majeur est derrière ce modèle IA.

Source