Les robots doivent-ils avoir des droits ?



Chaque jour, on s'approche un petit peu plus d'une intelligence artificielle suffisamment intelligente pour avoir une conscience et réfléchir par elle-même.

Je ne sais pas si nous y arriverons un jour, mais si cela arrive, devrons-nous continuer à traiter nos robots comme de vulgaires grille-pains, ou devrons-nous leur accorder des droits ?

En ce qui me concerne, je pense qu'avant même de vouloir leur faire payer des impôts (spéciale cacedédi à Benoit), il faudra leur accorder des droits et pourquoi pas des devoirs (en mode 3 lois de la robotique d'Asimov).

Publié le vendredi 24 mars 2017 par Korben Catégories Mots-clés

Notable Replies

  1. À partir du moment où le robot constitue une entité vivante (qui se maintient par un mouvement constant vers son unité), il en découle la notion d'atteinte à l'intégrité. Si des "émotions" négatives affectent cette intégrité, alors cela ouvre la porte à la souffrance et la cruauté. AMHA c'est seulement à partir de là qu'on pourra accorder des droits à ce type de robot.

    Mais fabriquer un robot émotionnellement sensible reviendrait à fabriquer un robot avec une faille béante et conséquente. Je ne pense pas que fabriquer un robot faible soit intéressant, cela irait à l'encontre du progrès.

    Vaste débat. :slight_smile:

  2. Ne pas oublier que le programme qui anime le robot est programmé par l'homme et que les actions réalisé par le robot sont également définies par l'homme. La responsabilité des actions du robot reviendra donc à l'homme.

  3. Adsofts says:

    Oui si on parle de robot d'usine ou d'un grille-pain mais là le sujet est justement de parler de (futurs) robots ayant une IA suffisamment avancée pour etre autonome. Dans ce cas (par exemple comme avec les réseaux neuronaux) les actions du robot ne sont pas écrites à l'avance par l'homme mais c'est l'IA qui décide seule ce qu'elle doit faire dans le cadre qui lui est défini. La question des droits à donc bien tout son sens car avec une telle IA, le robot s'approche de l'esprit humain doté d'une volonté quasi-autonome (et peut etre un jour totalement autonome).

    Je pense que dès lors qu'une entité à son propre pouvoir décisionnel et une certaine liberté d'action, humaine ou non, elle doit avoir des droits et des devoirs.

  4. Le probleme avec les robots doués d'intelligence, c'est pas tant qu'il auront des droits, c'est surtout qu'ils ne vont plus vouloir faire ce pourquoi on les a construits.

    Le robot démineur intelligent, il ne voudra plus aller risquer sa "vie robotique" pour aller voir si il y a une bombe caché dans un sac.
    On fera comment alors ?

  5. Adsofts says:

    Je ne sais pas comment on fera si un jour ca arrive, mais pour qu'un robot ai peur il faut qu'ai conscience de lui même ce qui est une étape encore bien plus avancée que la prise de décision autonome. Si un jour un tel robot apparaissait, à mon sens on devrait parler de nouvelle espèce et non plus de robot car la conscience induit tous les sentiments humain.

  6. Je ne suis pas d'accord avec toi Adsofts. Effectivement l'IA permettra aux robots de prendre une décision de façon autonome mais son cadre d'action devra bien être défini par l'homme. En gros le système sera transcris en langage informatique puis télécharger dans la mémoire du robot. Même si il aura le pouvoir de parler, de réagir et d'apprendre, si son programme ne lui permet pas de réaliser certaines actions, il ne les fera pas.
    Le robot sera toujours borné par son programme, quelles que soient ses capacités cognitives.

  7. Adsofts says:

    "si son programme ne lui permet pas de réaliser certains actions, il ne les fera pas" ... c'est faux, désolé :slight_smile:
    Le but d'une IA est précisément à terme d'être capable de créer ses propres actions en fonction de ce qu'on lui à appris.
    Un example concret : http://www.wired.co.uk/article/google-artificial-intelligence-encryption

    Quand on développe une IA, on ne lui donne pas une liste de procédure à déclencher en fonction de certains paramètres (ca c'est un programme procédural, pas une IA), le but est de créer une entité qui va analyser des situations, en tirer des conclusions et ensuite réagir à des situations similaires en fonction de l'apprentissage et des directives de bases des développeurs.

    Alors évidemment pour le moment on est encore assez loin de cet idéal, les meilleures IA ont une capacité d'apprentissage proche d'un enfant de 2 ou 3 ans, mais c'est déja une réalité, ces IA sont bel et bien capable d'effectuer des actions par elles mêmes sans qu'un développeur lui ai décrit pas à pas la facon de réaliser ces actions.

  8. markham says:

    Les robots doivent-ils être responsables de leurs actes ?

    bah non, c'est l'human qui programme la machine, si t'es assez fou pour mettre de l'intelligence artificiel et de l'auto apprentissage a une machine qui est equipé d'arme, faut pas s'étonner si elle se retourne contre toi, tu fera juste partie d'un de ses millards de scenario d'apprentissage.

    de plus il n'y a pas de notion de responsabilité a une machine qui ne sait pas, ce qu'est une responsabilité et ce que cela implique, elle ne s'ait ce qui est bien, mal et ne voit aucun soucis a etre enprionner ou démonté ayant aucune notion du temps, de la liberté, et de la mort.

Continue the discussion tech.korben.info

17 more replies

Participants