L'éthique publique de l'intelligence artificielle

La révolution de l’intelligence artificielle et plus particulièrement de l’apprentissage profond ouvre des perspectives de développement technologique inédites pour améliorer la prise de décision, réduire certains risques et offrir une assistance aux personnes les plus vulnérables. L’espoir de progrès sociaux que fait naître l’intelligence artificielle est doublé de la crainte qu’elle puisse devenir un outil de domination par le contrôle de la vie privée, la concentration des capitaux, et le renforcement ou la création de discriminations. 

Le développement et les applications de l’intelligence artificielle mettent en jeu des valeurs morales fondamentales qui peuvent entrer en conflit et engendrer des dilemmes éthiques graves ainsi que de profondes controverses sociales et politiques : doit-on privilégier la sécurité publique par l’accroissement des moyens de surveillance intelligente au détriment des libertés individuelles? Peut-on améliorer le bien-être des individus, notamment en les incitant à adopter certains comportements grâce au suivi des objets connectés, sans respecter leur autonomie?

Pour résoudre ces questions concrètes et faire en sorte que les machines intelligentes agissent « en bonne intelligence » avec l’ensemble de la société, il est nécessaire de recourir à un surplus de démocratie et d’inviter le plus grand nombre de citoyen(ne)s, d’expert(e)s et de responsables publics à participer à un processus de réflexion sur les enjeux sociaux de l’intelligence artificielle. C’est tout le sens de la démarche initiée par la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle : rendre à la démocratie la compétence de trancher les questions morales et politiques qui concernent la société dans son ensemble.

L’objectif de cette démarche de coconstruction ne consiste donc pas simplement à savoir ce que les individus pensent intuitivement de telle ou telle innovation, comme dans le cas d’un sondage, mais plutôt à ouvrir une discussion démocratique sur la manière dont on doit organiser la société pour faire un usage responsable de l’intelligence artificielle. Car la question que nous devons nous poser n’est pas de savoir si l’intelligence artificielle est bonne ou mauvaise – cela reviendrait à se demander si l’invention de la roue est bonne ou mauvaise : tout dépend de son utilisation. La question pertinente est plutôt de se demander quels arrangements sociaux et politiques nous permettraient de tirer les plus grands bénéfices de l’intelligence artificielle de manière équitable et de faire usage des appareils intelligents pour accroître notre autonomie et nos libertés.

Le processus de coconstruction s’appuie sur un travail préalable de repérage des valeurs fondamentales et des principes éthiques généraux qui articulent ces valeurs : bien-être, autonomie, justice, vie privée, connaissance, démocratie, responsabilité. Il s’agit alors de préciser ces principes éthiques, de les enrichir, d’offrir des réponses crédibles aux questions pressantes et de formuler des recommandations politiques et juridiques disposant d’une forte légitimité démocratique. 

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle constitue ce cadre éthique qui assure que l’intelligence artificielle promeuve les intérêts fondamentaux des personnes et des groupes.