En route vers des modèles IA moins énergivores mais tout aussi efficaces

par Korben -

Vous avez sûrement entendu parler de l’impact environnemental faramineux de l’intelligence artificielle, que ce soit pour demander à ChatGPT de nous donner un coup de main ou pondre une image de fou sous Midjourney, l’IA a un appétit gargantuesque en énergie. Il parait qu’une seule requête à ChatGPT consommerait autant d’électricité que 40 recharges de smartphone ! Un peu dingue.

Mais rassurez-vous, tout n’est pas perdu. Une équipe de chercheurs en informatique de l’Université de Copenhague a trouvé une solution pour mettre l’IA au régime, sans pour autant lui couper les vivres. Leur étude, qui sera présentée lors de la conférence internationale ICASSP-2024, montre qu’en gardant l’efficacité énergétique en tête dès la conception des modèles d’IA, on peut réduire leur empreinte carbone de 70 à 80% sans sacrifier leurs performances. C’est pas mal, hein ?

Les chercheurs ont pour cela, passé au crible plus de 400 000 modèles de réseaux de neurones convolutifs, ces IA qui servent à analyser des images médicales, à faire de la traduction ou encore à reconnaître des visages. En se basant sur ces calculs, ils ont alors concocté un genre de “livre de recettes” pour les pros de l’IA, avec des exemples de modèles moins énergivores mais tout aussi efficaces.

Alors oui, dans certains domaines comme les voitures autonomes ou la médecine, il ne faut pas rigoler avec la précision. Mais pour le reste, les chercheurs insistent : il faut adopter une approche globale qui prenne en compte non seulement les performances des modèles, mais aussi leur impact climatique.

Si le sujet vous intéresse, je vous invite à jeter un œil à l’article original ! Les chercheurs ont même mis à disposition ce fameux “livre de recettes” sur Github pour que les dev spécialisé en IA puissent s’en inspirer et réduire l’empreinte carbone de leurs modèles. C’est un vrai premier pas vers une IA plus durable et responsable, et ça c’est cool !

Source