A l’origine de cet article se trouvent deux questions pour l’instant sans réponses : à partir de quel stade peut-on estimer qu’une IA est consciente, et de fait, responsable de ses actes ? Et si cette entité ne peut finalement pas être tenue pour responsable, qui doit l’être ?

Quelque soit la réponse à ces questions, beaucoup de chemin reste à faire. Si l’IA est loin de représenter la menace catastrophique que les médias véhiculent régulièrement, il n’en reste pas moins que la question de l’intégration des IA dans notre quotidien doit être étudiée, notamment au travers d’un cadre juridique.

La majeure partie des répartitions de responsabilités liées à des IA ou des robots passe aujourd’hui par des accords contractuels. Les différents acteurs (concepteurs, constructeurs, propriétaires et usagers) s’entendent autour d’un contrat qui stipule les responsabilités imputables à chacun. Malheureusement, ces contrats protègent rarement le plus grand nombre, et sont plus souvent rédigés dans l’idée de favoriser les entreprises plutôt que les usagers. Or si l’on veut pouvoir intégrer complètement les IA dans nos vies, il faut pouvoir être sûrs de proposer à tous les acteurs des conditions équitables et justes.

Comment réglementer quelque chose que l’on ne peut pas définir?

Un premier pas vers une réglementation équitable de l’IA est… de ne pas essayer de réglementer l’IA en général. En effet, comme nous l’avons expliqué dans un précédent article, la définition même de l’IA est encore sujette à trop de désaccords y compris au sein de la sphère scientifique. Or comment réglementer quelque chose que l’on ne peut pas définir?

Les enjeux varient énormément entre les responsabilités d’une IA pilote de voiture autonome, celles d’un robot médical ou encore d’un jouet pour enfant. Il faudrait donc segmenter les différents domaines d’IA, et définir dans chaque cas des cadres adaptés. Quelques cadres ont déjà commencé à être établi pour certaines applications, notamment pour la régulation des voitures autonomes.
De manière globale, on peut deviner quelques éléments en lisant entre les lignes du régime global de responsabilité actuel. On peut notamment engager la responsabilité de plusieurs acteurs :

  • Celui du concepteur, si le système provoque un dommage provenant d’une erreur d’architecture.

  • Celui du programmeur, si le dommage est causé suite à une erreur de code.

  • Celui du fabricant, si le dommage provient d’un défaut de fabrication.

  • Celui de l’utilisateur, si ce dernier fait un usage non conforme du système.

Les réglementations appliquées par les nations ont également leur importance : elles devraient être pensées, écrites et révisées régulièrement en accord avec les avancées du domaine.

Dans le cas d’IA ayant atteint un certain seuil d’autonomie décisionnelle, qui peuvent interpréter des ordres plus larges et les suivre selon des méthodes qu’elles auront sélectionné et qui leur seront propres, il est entre autres possible de se raccrocher au cadre de responsabilité du fait des animaux. Ce cadre prévoit notamment que le propriétaire de l’animal doit à tout moment être maître de son animal, et peut être tenu responsable des dommages causés par celui-ci.

Malheureusement, les avancées dans le domaine de l’IA sont telles qu’elles risquent de rendre obsolètes les cadres juridiques que l’on peut leur appliquer pour l’instant par analogie. Il devient de plus en plus difficile de contrôler entièrement l’intégralité des processus opérant dans le fonctionnement des IA. Les différents acteurs cités plus haut peuvent aisément se dédouaner de toute responsabilité, étant réellement incapables de prédire exactement les évolutions du système.

Faire face à nos responsabilités

Mais qu’il soit impossible de prédire à coup sûr le comportement d’une IA n’empêche pas les humains qui en ont la charge d’être concernés par ses actes. De la même manière que pour un enfant, il faut pouvoir affecter des tuteurs humains, capable de se charger du système quel que soit son niveau d’autonomie et de conscience. Cela permettrait notamment de responsabiliser l’homme dans ses interactions avec les IA, en imposant une meilleure compréhension des mécanismes qui régissent les différents types d’IA.

Il est temps de faire face à l’évidence : les humains doivent rester responsables du développement des IA.

Il est autant question de responsabilisation au sens moral du terme que matériel : cette responsabilisation de l’homme est d’autant plus importante qu’elle a pour but principal de réparer les éventuels dommage causés. Il est donc absolument nécessaire de trouver un responsable à chaque dommage, et d'éviter au maximum que qui que ce soit puisse s'exonérer de cette responsabilité.

Finalement, la question n’est pas de savoir s’il est nécessaire de créer une personnalité juridique entièrement dédiée à l’ « IA ». De la même manière qu’on ne régule pas l’Informatique dans sa globalité, ou que les ordinateurs sont considérés comme des outils et ne disposent pas de personnalité juridique propre, cela n’a pas de sens de vouloir définir une personnalité juridique pour l’IA dans sa globalité.

Au lieu de ça, chaque individu doit prendre conscience de l’impact de l’IA, car seule l’éducation du plus grand nombre permettra d’aborder sereinement le futur.

Il est temps de faire face à l’évidence : les humains doivent rester responsables du développement des IA.