Aux limites de l’innovation

Qu’est-ce qu’une intelligence artificielle éthique ?

À l’heure où le champ des possibles s’ouvre pour tous ceux qui rêvent d’une IA aboutie, la question de l’éthique se pose. Comment éviter que les machines indépendantes que nous créons se retournent contre nous ?

 

Depuis près d’un demi-siècle, l’idée qu’un jour nous puissions vivre un jour aux cotés de machines capables de penser comme nous, fait vivre l’imaginaire collectif. La littérature et le cinéma se sont très vite emparés de cette notion de « robot intelligent », en peignant parfois un futur où la cohabitation entre intelligences artificielles et humains serait profitable et heureuse, ou en pointant au contraire les dérives les plus désastreuses qu’elle pourrait engendrer.

Si l’univers de la science-fiction attire et fascine, les histoires qu’elle produit sont souvent pessimistes et mettent en garde les lecteurs contre l’impact le plus sombre des avancées technologiques dans la société.

Ce sont précisément ces déviations regrettables de l’intelligence artificielle qu’espèrent éviter les géants du numérique en s’associant autour d’un partenariat. En édictant des règles qu’ils s’efforcent de respecter, Google, Apple, Facebook, Amazon, Microsoft, IBM ainsi qu’une grande communauté de chercheurs s’engagent aujourd’hui pour développer une intelligence artificielle responsable et éthique.

 

ai

 

Les Géants du numérique au service d’une IA responsable

 

partnership-on-ai-1

 

Partnership on AI to benefit people and society (ou Partenariat de l’intelligence artificielle au service des citoyens et de la société) : c’est sous ce nom ambitieux que certains géants du numérique ont fait le choix de s’associer. Le but de cette organisation à but non lucratif est de faire avancer la compréhension du public sur l’intelligence artificielle, et de définir les meilleures pratiques dans ce domaine.

Ce partenariat permet aussi aux plus grands acteurs de la recherche dans le champ de l’intelligence artificielle de mettre en commun les résultats de leurs travaux et d’engager une réflexion à plusieurs sur les diverses applications possibles de leurs découvertes.

Les membres fondateurs contribuent aux ressources financières du groupe et invitent à partager les prises de décision avec des acteurs externes comme des universitaires, des avocats et des experts du sujet.

Afin de mettre à profit les bienfaits que peuvent apporter l’intelligence artificielle à l’humanité tout en respectant les défis mondiaux actuels comme le changement climatique, la nourriture, l’inégalité, la santé et l’éducation, l’organisation met en avant huit grands principes.

Ces principes abordent des thématiques telles que la sensibilisation du public à l’intelligence artificielle, la protection des utilisateurs et de leur vie privée, le soutien à la recherche… Mais la façon dont ces principes seront appliqués dans la réalité demeure très vague.

 

La conférence d’Asilomar : du biologique au numérique, même combat éthique

En 1975, quelques 150 généticiens du monde entier se sont retrouvés dans un centre de conférences à Asilomar en Californie afin d’interroger le sens de leurs expérimentations. En débattant sur des sujets qui posent de grandes problématiques morales et sanitaires, un point crucial est soulevé : il existe un risque non négligeable que la manipulation génétique aboutisse à des armes biologiques de destruction massive.

Le temps de réfléchir à un accord commun sur les limites qu’il conviendrait de se fixer dans l’expérimentation pour éviter toute dérive, les chercheurs ont convenu de suspendre leur activité. La conférence s’est conclue sur la mise en place de grands principes directeurs encore utilisés aujourd’hui pour assurer la sécurité des concitoyens.

C’est en visant ce même objectif que la conférence Beneficial AI 2017 a été organisée 40 ans plus tard, au même endroit. Ici, ce n’est plus la biologie qui fait le coeur du débat mais bien le digital. De nombreux spécialistes se sont réunis pour l’occasion et ont débattu afin de faire voir le jour aux 23 principes d’Asilomar. Ces principes entendent encadrer le développement de l’intelligence artificielle afin que celui-ci puisse embrasser l’avenir sereinement.

A ce jour, près de 3000 personnes ont adopté ces principes : un quart d’entre-eux sont des chercheurs dans le domaine de l’intelligence artificielle et de la robotique, le reste représente des spécialistes dans d’autres disciplines. Chaque principe a dû atteindre 90 % d’acceptation avant d’être admis dans la liste finale.

 

Pour se faire une idée de ce qu’est une intelligence artificielle éthique, voici quelques-uns des principes que tout chercheur se devra de respecter afin d’en créer une :

1) Objectif de ces recherches : Le développement de l’IA ne doit pas servir à créer une intelligence sans contrôle mais une intelligence bénéfique.

6) Sécurité : Les IA devraient être sécurisées tout au long de leur existence, une caractéristique vérifiable et applicable.

7) Transparence en cas de problème : Dans le cas d’une blessure provoquée par une IA, il est nécessaire d’en trouver la cause.

11) Valeurs humaines : Les IA doivent être conçues et fonctionner en accord avec les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité culturelle.

14) Bénéfice collectif : Les IA devraient bénéficier au plus de gens possible et les valoriser.

16) Contrôle humain : Les humains devraient pouvoir choisir comment et s’ils veulent reléguer des décisions de leur choix aux AI.

18) Course aux IA d’armement : Une course aux IA d’armement mortelles est à éviter.

19) Avertissement sur les capacités : En l’absence de consensus sur le sujet, il est recommandé d’éviter les hypothèses au sujet des capacités maximum des futures IA.

20) Importance : Les IA avancées pourraient entraîner un changement drastique dans l’histoire de la vie sur Terre, et doit donc être gérée avec un soin et des moyens considérables.

21) Risques : Les risques causés par les IA, particulièrement les catastrophiques ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur impact supposé.

22) Auto-développement infini : Les IA conçues pour s’auto-développer à l’infini ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.

23) Bien commun : Les intelligences sur-développées devraient seulement être développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre et pour le bien de l’humanité plutôt que pour un État ou une entreprise.

Share This Article

Read Full Story