Que disent les trois lois de la robotique d’Isaac Asimov ?

L’auteur de science-fiction Isaac Asimov a énoncé trois lois de la robotique, qui constituent une base éthique pour le développement actuel des systèmes autonomes.

L’un des termes technologiques de 2017 sera « intelligence artificielle ». L’année vient de commencer mais on peut déjà l’affirmer sans trop craindre de se tromper. Et la manifestation la plus expressive de cette technologie, ce sont les robots, qui sont également sous les feux de la rampe médiatique. Les deux domaines progressent rapidement et leurs progrès suscitent des débats et des réflexions à chaque étape. La vieille dystopie de la rébellion des machines ou de la coexistence avec ces systèmes est une source de fantasmes et de controverses.

À cet égard, il convient de rappeler ce que disent les trois lois de la robotique. Ils ont été énoncés par Isaac Asimov dans l’une de ses histoires, Vicious Circle (publiée en 1942), simplement comme un pilier social pour son univers littéraire. Ces règles visent les robots qui, dans les histoires et les romans de l’auteur, avaient la capacité d’agir par eux-mêmes.

C’est maintenant que la technologie a commencé à développer des systèmes dotés de cette qualité, comme les voitures autonomes ou les drones. Avec eux, des questions juridiques et éthiques se posent : qui est à blâmer lorsqu’une voiture autonome a un accident ? Si elle se conduisait toute seule, il est logique de se tourner vers le fabricant. Dans ce cas, la machine serait tenue responsable, non pas sur le plan juridique, mais sur le plan opérationnel.

Une question plus épineuse est celle de la protection des personnes. L’autonomie des machines doit s’accompagner de mesures de sécurité pour éviter de nuire aux personnes. C’est un précepte que contiennent les trois lois de la robotique d’Asimov. En fait, l’idée était de protéger les êtres humains. Que les robots, aussi avancés soient-ils, ne pouvaient pas se retourner contre les gens. En fait, cette préoccupation est également née dans la littérature. Frankenstein », de Mary Shelly, dessinait déjà, en pleine ferveur du romantisme gothique, la création qui se retourne contre son créateur. La première des trois lois de la robotique invalide cette possibilité.

« Un robot ne doit pas porter atteinte à un être humain ou, par son inaction, permettre qu’il soit porté atteinte à un être humain. »

C’est un concept qui a encore du sens aujourd’hui pour les développements futurs autour des systèmes autonomes. Dans le cas d’une voiture, si elle roule sans passagers à bord et qu’elle va percuter une autre voiture avec plusieurs personnes à bord, le premier véhicule doit-il se ranger, même s’il conduit correctement et qu’il subira davantage de dommages s’il le fait ? La première loi d’Asimov dirait que oui.

« Un robot doit obéir aux ordres donnés par les êtres humains, sauf si ces ordres entrent en conflit avec la 1ère loi. »

Autant les voitures sont autonomes, autant si la personne derrière veut prendre le contrôle, elle le fera. De même, même si un drone est programmé pour fonctionner de manière autonome, si la personne qui le surveille décide de prendre le contrôle, il dispose toujours des ressources nécessaires pour le faire. Le développement de tout système autonome est actuellement inconcevable sans mécanismes permettant aux personnes de les faire fonctionner manuellement.

« Un robot doit protéger sa propre existence dans la mesure où cette protection n’entre pas en conflit avec la 1ère ou la 2ème loi. »

Il est évident qu’un système autonome fera tout ce qu’il peut pour éviter de se faire mal. Comme toute technologie, elle est conçue pour fonctionner et continuer à fonctionner. Il durera plus ou moins longtemps selon la qualité, mais il n’entreprendra certainement pas des opérations destinées à tomber en panne.

Découvrez également :

Qu’est-ce qu’un disque dur (SSD) et pourquoi est-il meilleur qu’un disque dur ?

Télécharger gratuitement Terraria pour PC