Entrez vos identifiants

x
OU
Vous avez oublié votre mot de passe ?
Utilisateur wiki : vous n'aviez pas d'email ?

Korben - Site d'actualité geek et tech

Go Top

La courte vie d’un jpg

Voici une expérience simple à faire chez vous... Ouvrez une photo en .jpg dans photoshop ou tout autre logiciel de retouche d'image et sauvegardez l'image 500 fois de suite. Et voici ce que vous observerez :

En effet, sans provoquer aucune modif, la sauvegarde répétitive d'une photo, donc la recompression systématique de celle-ci en JPG provoquera une baisse de qualité de l'image suite à l'apparition d'artefacts (de parasites). Pensez donc à bosser avec des formats sans dégradation de l'image, si vous êtes sûr de faire un paquet de sauvegardes et que le rendu final est important pour vous.

[photo]

Facebook Twitter Email Copier Url

88 Responses to “La courte vie d’un jpg”

  1. soopaspuck dit :

    c’est sûr ! c’est le B A BA de la retouche d’image…
    sinon, pour des dessins, l’idéal c’est de convertir en vecteur pour pouvoir l’ouvrir dans illustrator par exemple, et ainsi pouvoir agrandir l’image à l’infini sans dégradation…
    Une solution en ligne très efficace pour convertir un jpg en vecteur(EPS,SVG):
    http://vectormagic.com/home
    tu en avais déja parlé ici : http://www.korben.info/transformez-vos-caribous-en-svg.html
    il y a une version standalone payante…

  2. Hogx dit :

    J’avoue que je ne pensais pas que l’altération était aussi rapide et avec cette amplitude!

  3. Avish dit :

    PNG powa :P

  4. Sam dit :

    “la sauvegarde répétitive d’une photo, donc la recompression systématique de celle-ci en JPG ”

    Heu… Si on copie un fichier JPG, ça ne va pas le recompresser hein… Ca peut paraitre évident, mais aux newbies de l’informatique pas forcément.

  5. Diti dit :

    D’où l’intérêt de travailler en RAW si on fait de la photo !

  6. Oizo dit :

    Logique vu que ça compresse avec pertes …
    Quel interet d’enregistrer un nombre important de fois un fichier JPG ?
    Les sources ne sont jamais des JPG généralement.

  7. DrSnake dit :

    Osef d’avoir x format mieux que l’un ou mieux que l’autre tant que le document de travail n’en pas (dans le cas présent) en jpg. Tous les éditeurs que l’on utilise ont leurs propres format de sauvegarde. Autan passer par là et n’utiliser le jpg que pour un rendu final unique.

    C’est un bon billet tout simple qui pourrait passer pour logique et même inutile auprès des connaisseurs mais qui peut modifier quelques habitudes pour ceux qui ne savaient pas.

  8. Datawolf dit :

    @Sam: on ne parle pas de copie, là…

  9. Craug dit :

    Bon sur ce coup je vais te faire confiance :) pas envie de faire 500 fois la sauvegarde d’une foto jpg pour tester :p

  10. BreizhKiller dit :

    Ben voyons, encore une belle légende urbaine.
    Faite le test par vous même…
    Je suis obliger de me battre fréquemment dans mon travail contre cette idée reçue. Et ce site va en ajouter une couche.
    Évidement si la personne indique un taux de compression monstrueux, l’image sera dégradée, il n’est même pas nécessaire de l’enregistrer plusieurs fois pour cela.
    Une image jpg non modifiée peu être enregistrée n fois, elle sera strictement identique.

    Et le coup de passer un raster en vecteur, de mieux en mieux… Au fait vous savez que depuis les satellites les américains ils peuvent lire les plaques d’immatriculation et les numéros de série des moteurs?

    Je me permet de réagir car j’aime bien ce site, “qui aime bien châtie bien”.

  11. Avish dit :

    @BreizhKiller:
    +1 me semble pas que Gimp fait se problème par contre suivant le programme j’ai déjà eu se genre de surprise après 3 sauvegardes consécutives (genre Jasc Paint Shop Pro à l’époque.)

    Se serait quand même une grande claque dans la gueule de tout le gars qui soutienne photoshop si s’étais bien le cas. (je sais pas je l’ai pas.)

  12. seb dit :

    Une petite précision quand même. Comment sont faites les sauvegardes pendant le test?
    On a toujours la même source ou la source est la dernière sauvegarde?
    Si on a toujours la même source je ne vois pas comment ça peut changer quoique ce soit.
    Si on prend toujours la dernière sauvegarde je comprendrais mais j’ai quand même des doutes. On prends un fichier qu’on enregistre avec un format compressé on a des pertes, si on réenregistre ce fichier avec perte ou peut encore avoir des pertes, ça semble logique. Mais si on a des pertes de qualité on gagne en taille hors si on enregistre un zip dans un zip dans un zip on ne gagne pas plus de place qu’en zippant une seul fois. Des fois ça prend même plus de place. Donc je doute qu’un jpg d’un jpg d’un jpg… d’un jpg sois vraiment moins bon que le jpg d’origine.

  13. Mout dit :

    @BreizhKiller:
    “Une image jpg non modifiée peu être enregistrée n fois, elle sera strictement identique.”

    Si ton image n’est pas modifié elle n’est pas recompressé parce qu’il n’y a rien à sauvegarder… si tu la sauvegarde sous un autre nom j’imagine que le soft que tu utilise fera une simple copie de fichier avec renommage, sinon c’est mal conçue.

    Je suis développeur dans une société de dématérialisation de document d’archive. Si un client nous demande de faire du JPEG je peux t’assurer qu’on va travaillé l’image dans tout notre process en TIFF et la transformer en JPEG au dernier moment. Il est claire que pour le commun des mortels c’est pas dramatique mais dans mon métier on a des clients très pointilleux sur le résultat et travaillé uniquement en JPEG serait un pur suicide…
    Oui à chaque sauvegarde du document il y a de nouvelles perte d’information, oui l’image se dégrade au fil des sauvegarde et oui c’est problématique…

  14. flo90 dit :

    Moi je sais que quand un jpeg était encore trop gros, je l’enregistrer encore en jpeg et l’image diminuais!

    D’ailleurs on dit un j p e g ou un jpeg?

  15. Mout dit :

    @seb:
    La différence réside dans la compression. Je ne connais pas la compression ZIP mais en tout cas il n’y a pas de perte en zip, En JPEG Si.

  16. Mout dit :

    @flo90:
    jpeg est une abréviation, je ne sais plus de quoi va voir sur wikipedia si tu veux s’avoir. Moi je dis jpeg, mais tu sais c’est pas dans le dico, j’immagine qu’on peux aussi dire j p e g…

  17. Asliben dit :

    Ceci n’est valable qu’en réouvrant l’image déjà enregistrée – donc déjà compressée, et en la réengistrant ( donc en recompressant ). Le test montre l’effet de l’algorythme de compression sur la qualité de l’image, rien de plus.

    Évidemment que ça ne change rien de faire CTRL+S n fois dans Photoshop, il n’enregistre pas sans modif du fichier de toute façon , et enregistre à partir d’une source non dégradée tant que le fichier n’a pas été fermé / réouvert après compression.

    Un peu de logique dans votre tête, les gens..

  18. Ulrar dit :

    C’est marrant quand même, on voit comme ça à quels endroits de la photo le logiciel enlève des infos pour la compression ..

  19. Aiji dit :

    Et oui, toujours utiliser le .jpg pour le résultat définitif sinon vous aurez des surprises.

  20. Nicolas dit :

    Privilégier le TIFF en 16bits pour l’édition, n’utiliser le JPEG que pour l’export et encore le PNG est souvent plus approprié (usage web)

  21. aciDben dit :

    le PNG vaincra !!!

  22. l'Ours dit :

    et avec le GIF, j’ai bon ?

  23. Louis dit :

    Heu, si je ne dit pas de bêtise (mais à vérifier), le taux de compression associé à l’enregistrement d’un JPG correspond à une importance de la compression.

    Ainsi : un JPG à 100% ne modifie aucunement l’image !

    Donc la vidéo ci-dessus correspond à un enregistrement JPG à un taux différent de 100%, et dans ce cas, il est possible que l’application successive de l’algo de compression modifie progressivement l’image, comme on le voit sur la photo.

  24. L419 dit :

    Heuuu, tout dépend du ratio de compression JPEG défini par défaut dans le soft en question !

    pour un ratio 1:1, tu peux sauvegarder 500 fois ou 20000 fois, il n’y aura pas de perte !

  25. Mout dit :

    @Louis:
    Même à 100% il y a une compression avec perte sur du JPEG.

  26. BreizhKiller dit :

    @Mout:
    Idem et je travaille dans des processus tout aussi précis, sinon plus, que l’édition ou la PAO : la télédétection entre autres choses. Il est bien évident qu’aucun logiciel ne travaille en JPG, ni en TIFF d’ailleurs. Le logiciel utilisera sont propre format, le Jpeg ou Tiff ne sont là pour le stockage.
    Maintenant nous sommes sur un site généraliste, et 99% des utilisateurs d’images n’aurons jamais aucun problèmes avec le jpeg.
    Il faut faire le contre-poids de ce genre de vidéo qui risquent surtout de dé-crédibiliser le format jpg. Format qui a tellement apporté au développement du web comme l’industrie des nouvelles technologies.
    Le même processus existe aussi pour le mp3 (128, 192, 256 ??)

    Faites vous votre propre idée, c’est la meilleur solution.
    Prenez une belle image de taille conséquente, enregistrez la en TIFF standard et en JPEG. Ensuite zoomez au maximum et de comparez pixels à pixels…
    Faites le avec un JPG avec une qualité de 100%, puis 80%, puis 60.

    Maintenant on peut tous stocker nos photos de familles en TIFF, et nos musiques en WAV, pour la plus grande joie des vendeurs de disques durs.

  27. Mout dit :

    @BreizhKiller:
    Tout à fais d’accord, il faut faire un compromis poids / qualité suivant le besoin. Seulement une image qui va être retouché sauvegardé, retouché re sauvegarder tout en JPEG sa pause problème et il faut le savoir.
    Même problème pour wav/mp3/flac.
    En musique c’est pareille, à l’enregistrement on ne va pas utiliser du mp3, le mp3 c’est en bout de chaine!
    Il y a beaucoup d’idée reçu sur l’image, merci Korben de lancer le débat, ça en éclairera surement plus d’un ! :)

  28. kopp dit :

    Euh, non, un JPEG qualité 100% compresse quand même, et il y a des pertes du à la quantification des coefficients, de même il me semble que par défaut, on sous-échantillonne les canaux de couleurs. Donc même à 100%, le processus de ouvrir, réengistrer (en supposant qu’on réutilise l’algorithme de compression à la sauvegarde) et répéter finira par créer des artefacts. Beaucoup plus lentement que sur cette vidéo, ceci dit.

    Ensuite, je ne suis pas d’accord pour le PNG : pour de la photo, le PNG n’amène pas les même taux de compressions que ceux réalisables avec le JPEG, qui est développé exclusivement pour la photo.

    En revanche, le jpeg est affreux pour des documents types captures d’écran, de texte etc, là où le png s’en sort mieux.

    Le JPEG 2000 améliore nettement les performances du JPEG.

    Enfin, le JPEG est de la compression avec perte d’où ces problèmes.

    Le ZIP (Algorithme Lempel Ziv etc) est de la compression sans perte. On n’arrivera jamais aux même taux qu’avec le JPEG, mais on retrouvera la donnée originale. L’objectif n’est pas le même.

    EDIT : bon, bien grillé sur l’ensemble ;)

    Je rajoute quant à la télédétection : les formats sont surtout ceux qui sortent des capteurs des satellites, ensuite il y a des formats classiques qui correspondent à du bitmap et qui sont beaucoup utilisés. J’ai aussi déjà travailler avec des images en tiff, mais c’était beaucoup plus rare. Ensuite tu peux avoir des images avec plus de canaux que du classique RGB (hyperspectrale etc) ou des données complexes (RSO) donc c’est normal qu’on ne travaille pas en TIFF ou JPEG, ça ne correspond pas.

  29. John dit :

    @BreizhKiller:
    Tout ce que dis l’article, c’est qu’une phase de décompression/recompression systématique d’une donnée, avec un algorithme de compression avec perte (genre ondelette, et je crois bien que JPEG utilise ce procédé), dégrade la donnée. Prend un JPEG, compresse/décompresse le un bon paquet de fois, et tu dégrades ta photo. D’où l’importance de garder toujours une sauvegarde du JPEG original d’une photo si on prévoit de faire beaucoup de modifs dessus.

    En ce qui concerne le non vectoriel vers vectoriel, beaucoup de travail est réalisé en ce sens, et de bons programmes ont été réalisés dans ce sens. A ce jour, seules les images monochromes sont concernées (ce qui est pas mal pour vectoriser un logo).

    Ce qui serait amusant, c’est de voir à quoi l’image ressemble une fois atteint son point fixe (elle ne change absolument plus après une compression/recompression) (si point fixe il y a dans cette compression sur cette image)

  30. Olivier92 dit :

    C’est bien beau votre débat, mais la photo de la nana me donne envie de revoir sa vidéo p0rnZ. Tchuss !

  31. Rod dit :

    @BreizhKiller:
    Merci pour tout ce que tu as dit parce que sinon on aurait entendu beaucoup de conneries… et pas beaucoup de choses intelligentes ! sérieusement.

    @Olivier92:
    ah oui ? tiens je savais pas merci pour cette info autrement plus intéressante que le jpg. :D

  32. Someone dit :

    C’est exactement le même principe que le fait de photocopier un document qui provient lui-même d’une photocopie ! Les pertes résultantes sont accentuées à chaque photocopie ou enregistrement JPEG.

    JPEG fait intervenir un algorithme de compression avec pertes, donc il y a forcément des pertes, même en qualité maximale.

  33. Mout dit :

    @Olivier92:
    Sérieux elle a fait ça elle? :d

  34. love dit :

    Jpeg c’est de la compression par zone donc forcement on perd en qualité. L’idéal ça serait du raw zippé (ça existe comme format ça ?). Par contre je vois pas bien l’intérêt de faire cette manipulation et le résultat est sans surprise.
    La chose à retenir c’est surtout qui zipper un jpeg ça sert à rien.

  35. Scarlett dit :

    Bah, mes photos sont moches au départ.

  36. Himura dit :

    On peut vraiment lire tout et n’importe quoi sur le net, et meme sur le blog de korben…

    Donc quelques précisions par rapport à tout ce qui a pu etre dit dans les différents commentaires (et meme la news…):

    JPEG est aussi bien un format de fichier qu’un encodage d’image. Et il faut bien entendu distinguer les deux.

    Le JPEG peut encoder sans perte. Faut juste avoir le bon encodeur (norme JPEG-LS pour etre précis).

    Le FLAC est un codec sans perte. Donc recompresser un FLAC en FLAC n’altèrera pas la qualité (mais ne permettra pas non plus de gagner de la place).

    Le TIFF est un format d’image et peut contenir une image encodée en JPEG.
    Le WAV est un conteneur et peut contenir un fichier encodé en mp3.
    Donc oui on peut stocker nos photos de familles en TIFF et nos musique en WAV et cela sans prendre plus de place qu’en JPEG et MP3 :D Et travailler sur une image en TIFF à la place de JPEG n’est valable que si l’encodeur de l’image est autre chose que le JPEG.

    @love : Le raw zippé en tant que tel n’existe pas, mais tu as le choix pour parvenir au meme résultat. JPEG sans perte par exemple ou PNG.

  37. l'homme qui danse dit :

    Ils vont ou les pixels détruits ?

  38. armateur dit :

    je viens d’enregistrer une photo en PNG et en JPEG au même poids , j’ai zoomé les deux photos , le rendu de la photo en PNG est vraiment trés mauvais , les artéfacts sont là dés le premier enregistrement , la photo en JPEG est pixellisée mais pas d’artéfacts ,
    je vais continuer à enregistrer en JPEG …..

  39. Mout dit :

    @Himura:
    “Le FLAC est un codec sans perte. Donc recompresser un FLAC en FLAC n’altèrera pas la qualité (mais ne permettra pas non plus de gagner de la place).”
    Je me sent visé parce que je suis le seul à avoir parlé de FLAC et je n’ai jamais dis que le flac était un format avec perte.

    “Le JPEG peut encoder sans perte. Faut juste avoir le bon encodeur (norme JPEG-LS pour etre précis).”
    Effectivement, merci de l’info je ne connaissais pas ! :)

    Ensuite les histoire de conteneur (wav et tiff) je n’avais jamais entendu parlé de ça et tu m’intéresse énormément alors si tu pouvais me donner quelque liens explicatif sur tout ça se serait vraiment sympa ! Par contre j’ai du mal à saisir l’intérêt (à part trompé l’utilisateur) de stocker une image encodé en JPEG dans un fichier .tif ainsi qu’une musique encodé en mp3 dans un fichier .wav.

    Merci !

  40. Mout dit :

    @armateur:
    Je ne dis pas que tu fais / dis n’importe quoi mais j’ai du mal à comprendre ton truc, surtout que le PNG est un format non destructeur…

  41. love dit :

    @himura bon tuyau pour le JPEG-LS pour les photographes il y a aussi le DNG.

    Le Raw zippé n’existant pas encore, je vais consacrer le reste de ma vie à proposer un nouveau standard allant dans ce sens.

  42. Hugo dit :

    Rien qu’avec la visionneuse de Windows, si on fait des rotations de l’image, au bout ‘une 50aine, vous commencerez à voir la différence !!

    Hugo.

  43. Zhrad dit :

    Ouch quand même, c’est bon à prendre en compte.

    Vous croyez que quelqu’un s’est vraiment pris une après midi pour sauvegarder 500 fois un Jpg?
    Vaste programme, ça aurait peut-être sa place dans le livre des records.

  44. armateur dit :

    @ Mout

    Ma photo faisait 4Mo je régle pour quelle fasse 400Ko en PNG , le résultat ne peut pas être aussi bon que la photo originale mais j’ai été trés surpris du résultat , sans zoomer ça ne se voit pas

  45. Tuxico dit :

    Bon , question éminemment plus importante, c’est quoi le nom de la fille ? ^^

  46. Franck dit :

    Tu as tort.
    Le jpg c’est mal comme matière première qu’on retravaille mais c’est bien comme format final. Utiliser le png comme format de photo sur le Web est aberrant.

  47. Tuxico dit :

    @Mout: Merci infiniment ^^

  48. Rien de nouveau en fait, puis bon faut le vouloir pour modifier/enregistrer une image jpg des centaines de fois :)

  49. Olivier92 dit :

    @Mout:

    Oh que oui. On pourrait même en faire une chanson.
    Alyson aime la sucette
    la sucette de son ami…

    *le reste est classé X*

  50. i M@N dit :

    @Absoluement :
    puis bon faut le vouloir pour modifier/enregistrer une image jpg des centaines de fois
    A mon avis le gars a pas du lancer toshop (Gimp c’est le bien) 500 fois!
    il a du lancer une boucle et faire un truc en ligne de commande genre :
    convert image.jpg -quality 50 sortie$i+1.jpg
    http://www.imagemagick.org/script/command-line-options.php#quality

    Enfin… j’espère !

    @+…

  51. BreizhKiller dit :

    @Himura:
    “Le TIFF est un format d’image et peut contenir une image encodée en JPEG.
    Le WAV est un conteneur et peut contenir un fichier encodé en mp3.”

    Heu! là ça part en live… évidement quand nous avons parlé du WAV, nous parlons du WAV PCM ce qui est 99% des cas, celui qui utilise un conteneur WAV pour mettre du MP3 dedans cherche surtout à se faire remarquer:)
    Idem pour le TIFF, si ton conteneur contient en fait une compression JPEG autant faire du JPEG.

    EN résumé,
    si vous êtes un utilisateur classique, stockez, modifiés et échangez vos photos en jpeg.
    si vous êtes un pro de l’image (PAO, télédétection, imagerie médicale,…) utiliser les formats qui correspondent à vos besoins et changez de métier si vous devez modifier 500 fois le même jpg :)

    (pareil pour le mp3… en disgrétion)

  52. judu dit :

    En fait, c’est tout simplement affolant que l’algorithme de compression jpg soit avec perte… Ou du moins que le logiciel de retouche enregistre avec perte à chaque fois. C’est une erreur du point de vue utilisateur. C’est à lui de choisir s’il veut compresser l’image. Normalement, un simple enregistrement devrait enregistrer sans aucune perte d’information.

    Je suis d’accord avec iM@N, ça doit être un peu triché, parce que je refuse de croire que le type a lancé 500 fois son toshop/gimp, et surtout, que ces logiciels inventent des pertes en enregistrant.

    Imaginez que votre traitement de texte enregistre avec perte… et qu’à chaque fois que vous ouvrez le même fichier, vous avez perdu des éléments de style, voire des mots entiers…

    Donc en conclusion, ça doit être ± un fake.

    Cordialement,
    Judu

  53. Murat dit :

    Il faut en vouloir pour faire 500 fois de suite la sauvegarde !

  54. Mout dit :

    Si le JPEG est un format avec perte c’est pas pour rien…

    L’encodage JPEG ( je ne parle pas de JPEG-LS) d’une image est fait avec perte pour minimiser au maximum le poids d’un fichier. Un encodage sans perte d’une image peut atteindre rapidement un poids importants.

    Exemple tout bête ouvre paint, dessine un peux, sauvegarde en BMP 24bit, sauvegarde en jpeg et tu verra la différence entre le rapport qualité / poids des deux formats d’encodage.

    La vidéo est peux être truqué mais tu va effectivement arrivé à ce genre de résultat si ton image est ré-encodé plusieurs fois d’affilé (donc sauvegardé plusieurs fois d’affilé). Je ne sais pas comment a été fais cette vidéo, peut être avec toshop, peut être avec gimp ou bien pourquoi pas avec un logiciel que la personne a développé elle même… L’important dans tout ça c’est de faire comprendre au gens que le JPEG c’est pas ce qu’il y a de mieux, tout comme le mp3 n’est pas ce qu’il y a de mieux.

  55. i M@N dit :

    En exclu pour korben.info la méthode employée :
    s’assurer que le paquet imagemagik est installer sinon faire : #aptitude install imagemagick
    se munir d’un image .jpg
    la renomer 0.jpg
    ouvrir un éditeur de texte
    copier/coller le code ci-dessous
    enregistrer testalacon.sh
    chmod +x testalacon.sh
    ./testalacon.sh

    #!/bin/bash
    y=1
    for ((i=0 ; $i < 500; i++))
    do
    count=$(($i + $y))
    convert $i.jpg -quality 50 $count.jpg
    done

    Je vous laisse tester… ; )

    @+…

  56. sidjel dit :

    Même compressé, willow est bonne.

    (Désolé pour le hs. C’était important que je le disse)

  57. Dynam dit :

    Une chose amusante, c’est que les artefacts de compression sont une chose autour de laquelle tourne des créatifs depuis un moment.
    Le dernier en date, Jörg Colberg, s’est inspiré du comportement “normal” du .jpg pour écrire un algorithme de compression pondéré sur le sujet de l’image.
    http://gizmodo.com/5449780/american-pixels-series-makes-art-of-artifacts

  58. J’ai déjà eu une qualité d’image aussi pourrie après moins de 10 sauvegardes :S
    Même problème avec le son wav et le mp3 aussi.

  59. Someone dit :

    @Hugo: il me semble que le format JPEG intègre un drapeau (bit) de rotation de l’image, et donc il en résulte, à l’affichage uniquement, une rotation du plan formé par l’ensemble des pixels de l’image. Il n’y a pas de recompression, juste une manière différente d’afficher l’image.

  60. Gwenn-ha-Du dit :

    @Korben :
    “En effet, sans provoquer aucune modif, la sauvegarde répétitive d’une photo, donc la recompression systématique de celle-ci en JPG provoquera une baisse de qualité de l’image suite à l’apparition d’artefacts (de parasites).”

    voici ce que l’auteur de cette expérience dit : “I took the original JPEG photo and opened it in Photoshop. Then I saved over itself as quality level 10 (out of 12). Then I closed the file and reopened it and did it again, 500 times”

    il y a bien eu une modification parce qu’avec une qualité de 10/12 il y a une perte à chaque nouvelle sauvegarde, d’où l’apparition des artéfacts.

    Ceci dit, même, si la qualité était de 12/12, il y aurait quand même eu une perte, mais une perte assez négligeable, parce que le JPEG se base sur une transformation DCT qui donne des coefficients réels, et comme on ne manipule pas des nombres avec une infinité de chiffres on est obligé de faire des approximations, donc une petite perte de précision.

  61. stakhanov dit :

    @ Himura : transformer un mp3 en wav cela s’appelle de l’arnaque. On fait croire aux gens que c’est un wav original (donc sans pertes), alors que le mp3 a provoqué des pertes irréversibles.
    C’est sur les réseaux p2p que l’on trouve souvent ce genre de fichiers trafiqués….

  62. mekou1 dit :

    Une image est codé dans le domaine spatial, le jpeg utilise une proprièté de l’oeil humain ( comme le mp3 pour le son).
    En gros l’image passe dans le domaine féquentiel, les basses fréquences on les gardes et les hautes on les virent.
    Si ce procédé est fait n fois il est normal que la qualité ce dégrade car à chaque fois il y’a des pertes entre l’image mère et ses enfants!!!
    En gros voir wikipédia :)

  63. FireTrap dit :

    Quel que soit le format utilisé, qui compresse/décompresse 500 fois ? Chez Ikea, ils font ça pour les canapés (pas en photos) : il y a = de chance de s’asseoir 500 fois sur son canap’ que de mater une tof XXX fois.

  64. zs dit :

    Mon cas perso:

    Depuis plus de 10 ans je traine des milliers de photos en jpg, d’abord de cd à HD , ensuite les dvd-ram sont apparus, puis les NAS…

    Je me suis toujours demandé pourquoi j’avais quelques photos dans ce style.

    C’est surement lié a dizaine de copies de copies que j’ai réalisé pendant toutes ses années.

    Merci Korben pour cette info.

  65. philippe dit :

    et ben … moi je trouve que ça a un coté esthetique – vintagetisée qui peut avoir un interet
    elle est où la moulinette qui fait ça ?

  66. Someone dit :

    @zs: on ne parle pas ici de copie d’un fichier numérique, mais du réengistrement de l’image au format JPEG.

  67. TheX dit :

    Hum… J’ai essayé, j’obtiens pas le même résultat.
    La fille n’apparait pas…
    Pourtant, j’ai continué après 500 sauvegardes, j’en suis à 1247.
    Je continu, et je vous dit quand je la voie.
    A bientôt ! ;)

  68. dededede4 dit :

    Vive le format PNG ! :D

    @Le ZIP (Algorithme Lempel Ziv etc) est de la compression sans perte. On n’arrivera jamais aux même taux qu’avec le JPEG, mais on retrouvera la donnée originale. L’objectif n’est pas le même.

    Qui utilise le zip ?
    Y’a rien de mieux que le tar.xz / tar.gz

  69. kopp dit :

    dededede4 : c’est parce que quelqu’un parlait de Zip plus tôt dans la discussion.
    Sinon, c’est plutôt le gz que le tar, la compression, même si tar peut aider à améliorer le résultat quand il y a plusieurs fichiers. Au final, ça reste du codage entropique, donc sur les mêmes idées que le zip.

    Pour celui qui parle de JPEG-LS, ok c’est sans perte, mais ce n’est pas le codage JPEG classique (ISO/IEC 10918) dont on parle en général. Et du JPEG classique même à qualité 100%, il y a des pertes. Et ce n’est pas des ondelettes, mais de la DCT. Les ondelettes c’est pour JPEG 2000.

    Sinon, tant que l’image sur laquelle on travaille n’est pas fermée dans Photoshop ou GIMP, sauvegarder de multiple fois ne fera pas perdre en qualité. A l’ouverture, le logiciel décompresse l’image et la stock en mémoire “sans perte” dans son format de travail, et les modifications sont faite sur ce format. A chaque fois qu’on sauvegarde, on compresse JPEG l’image “sans perte” de la mémoire.

    Ensuite, le jpeg travail en fréquentiel, mais aussi transforme l’espace des couleurs de RGB en YCrCb et sous-échantillonne les canaux de chrominance, l’oeil humain étant surtout sensible à la luminance.

    Au passage, j’avais vu des articles sur le codage perceptuel des images, et sur le fait qu’à partir du moment où les coefficients d’une fréquence donnée étaient supprimés, les coefficients de fréquences supérieures n’amélioraient pas la qualité perçue, même si le PSNR augmente. Je dois pouvoir retrouver les références si ça intéresse du monde.

  70. Atika dit :

    C’est étonnant que le reste de l’image reste de bonne qualité. Le format JPEG détériore les zones unies car c’est là son principe… Ça devrait détériorer toute l’image, non ?
    En tout cas en effet, c’est la base : chaque retouche d’une image détériore sa qualité initiale.

  71. Atika dit :

    @TheX: Tu as fermé l’image après l’avoir enregistrée à chaque fois ?

  72. kopp dit :

    Sinon, pour le visionneur d’image windows, vu comme il est pourri,ne prend pas en compte les tags de rotation etc, je suis sur qu’il pivote l’image et recompresse derrière…

    Atika : en effet, je trouve aussi bizarre qu’on ne voit aucune détérioration sur le visage etc…

  73. diablotin dit :

    500 fois de suite :-\, y’en a qui savent s’occuper :-)

  74. mekou1 dit :

    @KOPP
    Tu t’y connais en traitement d’image, j’ai à faire toute la chaine de quantifictaion etc … avec Matlab et c’est pas très évident sans toolbox. Si tu avais des sources ça serait cool

  75. Philippe dit :

    Dommage que le JPEG2000 n’ait pas marché …

  76. TheX dit :

    @Atika

    C’était de l’humour, je peux pas voir apparaître la fille… J’ai pas le jpg original…

    Et puis, je vais pas non plus lancer photoshop 2000 fois !

  77. ram dit :

    Le but initial est juste de mettre en évidence le principe de compression avec perte je pense…

    Non, on ne bosse pas une image en jpeg, c’est évident !

    Pour ceux qui savent de quoi on parle quand on dit “pertes”, vous n’êtes pas obligé d’aller au delà de cette petite ligne… pour les autres, voici un petit résumé vulgarisé :

    Le principe de compression avec perte existe car c’est tout simplement pratique !

    Si on utilise autant le jpeg c’est parce qu’il est tout léger, et dans une majorité de cas, il n’y a aucun intérêt à utiliser autre chose pour l’affichage d’une photo…

    le png est la pour répondre à d’autres type de besoins, le fait qu’il ne perd pas les données permet d’avoir un meilleur rendu sur certaines zones particulièrement contrastées de l’image, comme les zones de texte, ou les dessins au traits…

    @armateur : Attention, ne pas confondre le png dit “png-8” avec le png dit “png-24″ car l’un fonctionne en couleurs indexées (256 couleurs), l’autre en rgb 8-bits par couches (millions de couleurs), ceci explique sûrement ta situation particulière au le png semble contenir des artefact due à une compression, mais il ne s’agit que du passage en 256 couleurs ;-)

    En gros, pour afficher une image numérique, je ne vois pas l’utilité d’utiliser autre chose que du jpeg (ou du png dans des éléments particuliers…)

    Maintenant pour ce qui est de la manipulation d’images numériques, il est évident qu’on passe d’un monde à un autre, quand on bosse, on bosse… donc c’est du cas par cas…

    si l’image est lourde, c’est cool ça veux dire qu’elle est entière, ouais… mais mon document c’est un catalogue de 20 pages avec plein de visuels… c’est vraiment utile de bosser avec des formats type mastodonte comme EPS/TIFF ? j’ai pas d’info particulières sur une éventuelle couche de vernis ou autres opération post-impression… et de toute façon ça risque de finir re-échantillonné à 300dpi dans un pdf-x ! donc pour gagner en réactivité ben je vais utiliser des visuels en jpeg avec un taux de compression minimal et mon ordi pourra tourner a peu près correctement tout en m’affichant mes images comme il faut (le jour ou indesign fonctionnera en 64-bits on en reparlera bien sur… ^_^” )

    Et dans le cas ou je dois par exemple réaliser le trucage d’un plan du dernier Star wars, je dois effectuer l’intégration d’éléments 3D dans un plan live… bah d’un côté j’ai une suite d’image en tiff par exemple avec une précision de 16 bits par couches, et de l’autre une suite d’images en .exr avec plein plein plein de couches différentes (shadowpass, specular, GI, motion…) là, on peux oublier le jpeg, sauf peux être pour un export du rendu dans le carde ou on travail en 8bits par couches… ;-)

    Bref, la liste des exceptions est longue et c’est un autre débat de savoir quel format il faut utiliser pour faire telle ou telle chose… mais en revanche je suis pour la réduction du nombre formats ! car la course au brevets et les spec fermées ça commence à devenir vraiment casse b***** !

  78. kopp dit :

    @mekou1:
    Je ne me souviens pas avoir fait ça en TP, juste deux trois trucs sur les ondelettes (mais ce serait JPG 2000)

    Après je dois avoir des bouts de codes par ci par là pour la quantif etc, mais c’est pas bien dur au final, c’était surtout de faire l’enchainement les étapes qui doit être fastidieux.

    Je n’ai pas le temps de faire ça pour le fun, mais si tu as des questions précises, je peux essayer d’y répondre. Après si c’est juste que tu as la flemme, tu dois pouvoir trouver des codes sur le net, je pense.

    Moi de toutes façons, j’suis ingénieur : je connais la théorie mais faut pas me demander de faire de la pratique ;)

  79. ®om dit :

    Salut,

    Le test présenté sur ce billet a été fait avec un encodeur jpeg buggé.
    Recompresser n fois une image avec la même compression change le fichier (son md5 change), mais visuellement, même après 500 fois, je ne peux faire aucune différence.

    Le mieux c’est de tester vous-même.
    Partez de cette image : http://images.starpulse.com/Photos/Previews/How-I-Met-Your-Mother-tv-02.jpg
    Renommez-la en 0.jpg

    Ensuite, convertissez-là 500 fois en qualité 80 (nécessite imagemagick) :
    for i in {1..500}; do convert -quality 80 $((i-1)).jpg $i.jpg; done

    Faites-en une vidéo si vous voulez (nécessite ffmpeg2theora) :
    ffmpeg2theora -v8 –noaudio %d.jpg -o test.ogv

    Voici l’image 1.jpg :
    http://pix.toile-libre.org/upload/original/1266082222.jpg
    Et voici l’image 500.jpg :
    http://pix.toile-libre.org/upload/original/1266082245.jpg

    Aucune différence visible…

  80. ®om dit :

    La bonne commande est ceci :
    for i in {1..500}; do convert $((i-1)).jpg -quality 80 $i.jpg; done

    (le quality doit être après l’input)

  81. Raiden313 dit :

    Je fais revivre un peu le sujet :p

    @blog buzz & tendances: (oui, je parle à un lien vers un blog)

    Et pour le canal alpha ???

    Ceci dit si je ne dis pas bêtises, jpeg à un bon comportement avec les images présentant des variations ‘imprévisibles’ d’un pixel à l’autre.

    Le fait d’encoder un dégradé, ou une image unie réalisé sous son éditeur d’image préféré en jpeg donnera un mauvais résultat (sauf à haute qualité) (On pourra alors préférer le gif si l’image comporte moins de 256 couleurs).
    Mais png reste un format tout à fait viable, d’une part pour son canal alpha à 256 niveaux (1 pour gif, 0 pour jpg) ce qui le rend irremplaçable selon les cas, d’autres parts pour les images contenant des zones unies, mais beaucoup de couleurs.

    En d’autres termes, jpeg est préconisé sur les images de type photo ; gif, pour le dessin au trait, et png pour les images de ‘synthèse’ comportement souvent des dégradés ou des transparences (notamment en web pour les ombres).

    Tout ceci est à prendre avec des pincettes, je ne suis pas du tout graphiste :)

  82. heygeo dit :

    Je deterre le sujet !
    je vois qu’il y a des conaisseurs, alors que deviennent les formats JPEG LS et DNG ?

  83. C’est pourquoi je dis vive le Raw, même si je suis conscient que sur internet, c’est impossible sans la fibre optique de naviguer de manière confortable.

La menace des failles 0-Day

capture-vjhj

"En avril 2014, les chercheurs en sécurité de Google sont tombé sur une vulnérabilité présente à l’intérieur de la bibliothèque cryptographique OpenSSL. Petit problème, OpenSSL est utilisé sur les 2/3 des sites web qui utilisent HTTPS mais aussi par les téléphones Android. Heartbleed était né."

Si comme moi vous êtes un passionné de sécurité informatique et que vous vous demandez qu'est-ce qu'un truc comme Heartbleed peut causer comme dommages, la lecture de cet article sur les failles 0-Day est pour vous...et je vous rassure je ne parle pas du dernier film Blackhat récemment vu au ciné ;)

Lire la suite

Vous avez aimé cet article ? Alors partagez-le avec vos amis en cliquant sur les boutons ci-dessous :

Twitter Facebook Google Plus Linkedin email
Rejoignez les 55272 korbenautes
et réveillez le bidouilleur qui est en vous
abonnez-vous en savoir plus
"Vous aimez bidouiller ?" Oui j'adore l'informatique et la technologie
Suivez Korben Un jour ça vous sauvera la vie.. Ou celle d'un(e) ami(e)
  • Rejoignez les 55272 bidouilleurs de la grande famille des Korbenautes
    «Je considère que votre email est aussi important que le mien.»
    Korben
  • Univers Populaires

  • Site hébergé par
    Agarik Sponsor Korben
  • Vidéos

  • DANS TON CHAT (BASHFR)

    <VeauDeK> Alors qu'est ce que t'en penses ?
    <PepeluIV> Putain ça roxx à partir de 3:27 !
    <VeauDeK> Merci :D
    <VeauDeK> Mais oO... Elle dure 3 minutes 27 secondes la vidéo
    <PepeluIV> Exactement.

    -- http://danstonchat.com/12445.html
  • Une astuce pour rendre

    Windows 10 plus rapide

    Si vous trouvez que Windows 10 est un peu lent, que vos applications ne se lancent pas très vite, que vos compilations prennent du temps, voici une petite astuce débusquée par Brominou pour accélérer le bouzin. Cliquez dans la zone de recherche de la barre Windows et tapez le mot clé...lire la suite

    Cryptool pour s'initier à la cryptographie

    Alors attention, ce n'est pas nouveau, mais je me suis dit que ce serait intéressant de vous en parler si vous ne connaissez pas encore. Cryptool est un logiciel open source éducatif qui va vous permettre de comprendre les principes de base de la cryptographie. Dans sa version 2, Cryptool intègre...lire la suite

    En ce moment dans l'univers "Windows"

    Voir tous les articles »