Vous bossez sur un projet qui nécessite de détecter si vos utilisateurs envoient des images pornos ?
Voici une bibliothèque JS qui va vous permettre de déterminer côté client si une image est safe ou nsfw.
Baptisée NSFWJS, cette lib utilise TensorFlow et classe les images dans 5 catégories : Neutre, dessin, hentaï, porno ou sexy.
Ce système a une efficacité de 90% et va vous permettre de filtrer les images envoyées par vos utilisateurs avant même qu’elles ne soient envoyées sur votre serveur.
![Capture d'écran du code de NSFW JS montrant comment détecter les images inappropriées.](https://korben.info/app/uploads/2019/02/porn-1024x985.png)
Pour tester cette lib avant de l’implémenter, les développeurs du projet ont mis en ligne un site web de démo ici.
![Exemple d'une image NSFW détectée par NSFW JS montrant comment cela peut être utile pour la sécurité en ligne.](https://korben.info/app/uploads/2019/02/demonsfwjs.gif)
Et si vous voulez plus d’info sur le fonctionnement de NSFWJS, allez consulter ce post de blog.