Psychologie morale artificielle | Artificial moral psychology

Quoi:
Panel
Quand:
jeudi 2 nov.   01:30 PM à 03:00 PM (1 heure 30 minutes)

Une machine dotée d’intelligence artificielle pourrait-elle être considérée comme un agent moralement responsable? Ce panel se demandera comment la psychologie morale, c’est-à-dire l’étude des pensées et comportements moraux des gens, peut nous guider pour répondre à cette question.

Un agent moral artificiel devrait pouvoir prendre des décisions sur la base de valeurs et de normes morales. Une première question est de savoir s’il serait possible d’inculquer des valeurs et des normes à des agents artificiels. Ainsi, le philosophe Peter Railton examinera comment l’apprentissage moral d’une telle machine pourrait être envisagé. Heidi Maibom, spécialiste de l’agentivité morale, s’intéressera quant à elle à la possibilité d’agents artificiels dotés d’empathie. Si tel était le cas, il s’ensuivrait sans doute qu’il faut avoir de la considération morale pour ces agents. La question qu’explorera Joanna Bryson, qui vient de l’informatique et de la psychologie, questionnera s’il ne vaudrait pas mieux éviter d’attribuer de la responsabilité aux agents que nous construisons. Finalement, Yoshua Bengio se posera la question de savoir comment inculquer une morale aux ordinateurs en leur faisant induire celle implicite dans les comportements humains et leurs jugements de valeur. 

 

Could a machine that has artificial intelligence be considered to be a morally responsible agent? This panel will focus on how moral psychology, that is, the study of moral thoughts and behaviour of people, can help us to answer this question.

An artificial moral agent should be in a position to take decisions on the basis of moral values and norms. A first question, thus, is whether it is possible to teach values and norms to artificial agents. Peter Railton, a philosopher, will examine the question of how the moral learning of machines should be envisaged. Heidi Maibom, an expert on moral agency, will look into the possibility of building empathy into artificial agents. Now, if artificial agents could feel empathy, it would arguably follow that we would have to grant them moral consideration. The question that Joanna Bryson, who comes from psychology and computer science, will explore is whether we would not do better to avoid attributing moral responsibility to the agents we build. Finally, Yoshua Bengio will raise the question of how to teach morality to computers by letting them infer the one that is implicit in human behaviour and value judgements. 

 


Modérateur
Université de Montréal
Modératrice | Moderator
Présentateur
Université de Montréal
Conférencier | Speaker
Présentateur
University of Bath
Panéliste | Panelist
Présentateur
University of Cincinnati
Panéliste | Panelist
Présentateur
University of Michigan
Panéliste | Panelist

Personnes enregistrées 

Grenadine Technologies
Director of Software Architecture
Stradigi Labs
Université de Montréal
PhD
McGill
Centre d'éthique appliquée
Academos Cybermentorat
Université de Montréal
Age of Minds
Founder
Palais des congrès de Montréal
Directrice du marketing et des communications
SHAMAN
Digital Media Producer
D-TECK
Product Director
Collège Reine-Marie
51 personnes anonymes

Statut d'inscription

Vous devez vous inscrire pour assister à cet item.

S'inscrire

Cet item a une capacité maximale de 150 personnes.

Nombre de personnes inscrites: 62.