S’il est un auteur qui n’a cessé, dans son œuvre, de questionner l’intelligence artificielle, c’est bien Asimov. Chacun de ces romans est une réflexion autour des lois fondamentales qu’il faudrait suivre pour éviter que la robotique ne nuise à l’homme. Formulées par Asimov, ces lois sont les suivantes :
- Loi zéro : un robot ne peut nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal.
- Première loi : un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger*, sauf si de tels ordres entrent en conflit avec la loi zéro* ;
- Deuxième loi : un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- Troisième loi : un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.
Asimov a épuisé de nombreuses critiques autour de ces trois lois, depuis les robots empoisonneurs malgré eux aux robots meurtriers solariens… mais dans mon souvenir, une question n’est jamais soulevée : celle de la définition d’un être humain.
Et si nous programmions un jour un robot qui ne suivrait tout simplement pas ces lois, faute d’une reconnaissance efficace de l’humanité parce que d’un point de vue matériel, il en était incapable ? Et si le problème venait du logiciel ? Pas par malveillance, juste par incompétence ?