Intelligence Artificielle

Des experts en IA signent une lettre ouverte contre les robots !

Des experts signent une lettre ouverte critiquant la proposition de l'Europe de reconnaître les robots comme personnes morales

Plus de 150 experts en IA, robotique, commerce, droit et éthique de 14 pays ont signé une lettre ouverte dénonçant la proposition du Parlement européen d’accorder le statut de personne à des machines intelligentes. L’UE affirme que la mesure permettra de déterminer plus facilement qui est responsable lorsque les robots bousillent ou volent, mais les critiques disent qu’il est trop tôt pour considérer les robots comme des personnes – et que la loi laissera les fabricants s’en sortir.

Tout a commencé l’année dernière lorsque le Parlement européen a proposé la création d’un statut juridique spécifique pour les robots:

pour qu’au moins les robots autonomes les plus sophistiqués puissent être reconnus comme ayant la qualité de personnes électroniques responsables de réparer les dommages qu’ils pourraient causer, et éventuellement appliquer la personnalité électronique aux cas où les robots prennent des décisions autonomes ou interagissent de manière indépendante avec des tiers.

Alors que nous nous aventurons dans ce nouveau monde audacieux de robotique omniprésente et d’IA, la question de savoir qui sera responsable de ce genre d’incidents est ouverte. Faut-il blâmer le fabricant? Le propriétaire? Le bot lui-même? Ou devrait-il être une combinaison de ceux-ci? L’UE est naturellement inquiète que les actions de ces machines soient de plus en plus incompréhensibles pour les humains chétifs qui les fabriquent et les utilisent. La «boîte noire» qui en découle nous empêchera de comprendre ce qui s’est mal passé et qui devrait être responsable.

La personnalité électronique, estime le Parlement européen, est la solution à ce problème. Pour être clair, l’UE ne veut pas imposer aux robots et à l’IA des droits de l’homme, tels que le droit de vote, le droit à la vie ou le droit à la propriété. Il ne veut pas non plus reconnaître les robots comme des entités auto-conscientes (Dieu merci). Au contraire, cette mesure serait semblable à la personnalité morale – une fiction légale convenue conçue pour lisser les processus d’affaires en accordant aux sociétés des droits généralement accordés à des personnes réelles, à savoir les humains. Il est similaire aux efforts récents dans lesquels des parties du monde naturel, des choses comme les rivières et les forêts, se voient également accorder le statut de personne, également pour des raisons juridiques. La personnalité électronique transformerait chaque robot intelligent en une entité juridique singulière, chacun devant assumer certaines responsabilités et obligations sociales (exactement ce que ce serait, nous ne savons pas encore).

Selon cette disposition, la responsabilité résiderait avec le robot lui-même. Nous ne serions pas en mesure de jeter une machine en prison, mais nous pourrions exiger que tous les robots intelligents soient assurés en tant qu’entités indépendantes. Comme indiqué dans Politico , les fonds pour un régime d’assurance obligatoire pourraient être fournis par la richesse que le robot accumule au cours de sa vie (si le robot est utilisé pour accumuler de la richesse, c’est-à-dire comme un robot d’usine). L’UE affirme que la personnalité électronique ne consiste pas à accorder des droits humains équivalents aux robots intelligents et à l’intelligence artificielle, mais plutôt l’introduction d’une désignation juridique spéciale qui les reconnaît comme une classe spéciale de machines – mais qui nécessite un soutien humain.

Si cela semble déroutant (c’est-à-dire comment une entité autonome et autonome peut-elle encore avoir besoin d’un «soutien humain»), c’est parce que c’est le cas. La proposition de l’UE est suffisamment vague sur de nombreux détails, mais si elle ressemble à une identité corporative, elle pourrait entraîner toute une série de complications. Aux États-Unis, par exemple, les personnes morales peuvent intenter des poursuites ou être poursuivies, conclure des contrats légaux et être réglementées au niveau d’une entité unique, tout en protégeant les propriétaires et les employés de toute responsabilité. Cela signifie-t-il, par conséquent, que les fabricants et les propriétaires de robots seraient également absous?

C’est pour cette raison, parmi de nombreuses autres préoccupations, que 156 experts ont ressenti le besoin de signer une lettre ouverte à la Commission européenne responsable de la proposition. Les signataires de la lettre, dont la juriste Nathalie Nevejans du Comité d’éthique du CNRS, AI et le professeur de robotique Noel Sharkey de la Fondation pour la robotique responsable, et Raja Chatila, l’ancien président de la IEEE Robotics and Automation Society, sont d’accord pour garder les humains en sécurité à l’ère des machines sophistiquées. Mais ils s’opposent à l’affirmation selon laquelle il sera impossible de prouver la responsabilité lorsque des machines autonomes et autodidactes font quelque chose de mal.

“D’un point de vue technique, cette déclaration offre de nombreuses distorsions basées sur une surévaluation des capacités réelles des robots les plus avancés, une compréhension superficielle de l’imprévisibilité et des capacités d’auto-apprentissage et une perception robotique déformée par la science-fiction. quelques annonces de presse sensationnelles récentes », écrivent les signataires dans la lettre.

Les auteurs affirment également qu’il est inapproprié de fonder la personnalité électronique sur des précédents juridiques ou éthiques préexistants.

“Un statut juridique pour un robot ne peut dériver du modèle de la personne physique, puisque le robot aurait alors des droits humains, tels que le droit à la dignité, le droit à son intégrité, le droit à la rémunération ou le droit à la citoyenneté, confrontant directement les droits de l’Homme. Cela serait en contradiction avec la Charte des droits fondamentaux de l’Union européenne et la Convention de sauvegarde des Droits de l’Homme et des Libertés fondamentales “, affirment les auteurs. “Le statut légal d’un robot ne peut pas dériver du modèle de l’entité légale [soit], puisqu’il implique l’existence de personnes derrière la personne morale pour le représenter et le diriger. Et ce n’est pas le cas pour un robot. ”

Articles en relation

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Bouton retour en haut de la page
Fermer