Répondre :
Réponse :
Notre droit reconnaît les personnes physiques, dotées d'une personnalité juridique - droit à la propriété, à l'identité et à la personnalité. Il reconnaît aussi les personnes morales - comme les entreprises, qui ont une personnalité particulière. Mais le robot ne correspond à rien de connu, juridiquement parlant. Il n'est ni un objet, ni une personne. C'est pourquoi je propose de le doter d'une "personnalité juridique singulière". Une solution serait d'envisager une responsabilité en cascade : le programmateur, le fabricant, l'utilisateur, le robot.
Prenez une voiture autonome en circulation. Face à elle, deux voitures "classiques". Le véhicule autonome est certain de percuter l'une des deux. La première contient quatre passagers, la deuxième, une seule. L'algorithme de la voiture autonome prend la décision de foncer sur la deuxième. Était-ce à lui de trancher? J'estime qu'on ne peut pas laisser aux programmeurs le choix de fixer leurs règles éthiques. Il faut les encadrer en imposant une transparence sur la manière dont fonctionne l'algorithme ainsi qu'un droit de loyauté : le robot ne doit pas tromper l'humain en livrant par exemple des informations sur lui à des tiers, des fournisseurs.
Les robots actuels, et ceux qui pourraient être développés dans un futur proche, sont en pratique très divers - ce qui laisse poindre une première difficulté, d'ordre terminologique. Ils ont cependant en commun qu'ils sont - ou seront - dotés d'une certaine autonomie par rapport à l'homme. Pour autant, au-delà des réglementations spécifiques qui resteront nécessaires
Explications :
Merci d'avoir visité notre site Web, qui traite d'environ Français. Nous espérons que les informations partagées vous ont été utiles. N'hésitez pas à nous contacter pour toute question ou demande d'assistance. À bientôt, et pensez à ajouter ce site à vos favoris !