• La relativité de la morale

    La relativité de la moraleLa question occupait la pensée des philosophes, psychologues et même des biologistes depuis très longtemps : tueriez-vous une personne pour en sauver cinq ? Selon Wikipédia, cette expérience de la pensée a été décrite pour la première fois en 1967 par la philosophe britannique Philippa Foot et analysée par les philosophes américains Judith J. Thomson, Peter Unger et Frances Kamm dans un premier temps. Elle a été retravaillée par beaucoup d'autres chercheurs ayant proposé des variantes tout aussi inextricables et qui relèveraient d'une impasse morale. 

    Pour le sociologue Francesco Alberoni, l'établissement d'une morale se place dans une quête de transcendance de nos pulsions primitives pour nous élever " au-dessus de la nature animale à travers une lente évolution des mœurs qui oppose des tabous, des limites, des freins au déchaînement des instincts ". L'instant premier étant celui de survie pour lequel nous serions capables de tuer un semblable, et que le droit pénal de plusieurs sociétés contemporaines reconnaît comme une exception juridique inscrite dans le droit naturel, celle de la légitime défense. 

    Cependant, les différents cas de figure proposés par ces chercheurs ne concernent nullement le droit naturel de survie reconnu comme légitime défense, mais ils s'efforcent de découvrir qui aurait la primauté de survie : l'individu ou le groupe ?

    Ce dilemme a soulevé des réactions diverses. Parmi ses pourfendeurs les plus virulents, les psychologues Christopher Bauman et Peter McGraw affirmaient qu'il était stupide, car peu réaliste et inapplicable à des problèmes de la vie réelle. Ils ne se doutaient peut-être pas que cette problématique s'imposerait comme une donnée bien tangible visant une mise en pratique concrète en si peu de temps.

    La vertigineusement rapide évolution de l'intelligence artificielle a permis la conception des voitures autonomes qui impose le besoin, bien concret, de faire un choix dans une situation jusqu'alors théorique pour donner une réponse pratique à cette question philosophique. Il se trouve que les logiciels intégrés à ces voitures devront être programmés par un algorithme (nommé " algorithme de la mort " par la journaliste scientifique Anne Debroise) afin de réagir à ces divers cas de figure possibles et probables.  

    Ce fut ainsi que Jean-François Bonnefon, docteur en psychologie cognitive et directeur de recherche au CNRS, s'est lancé dans une expérimentation colossale pour obtenir l'opinion de conducteurs de différentes parties du monde sur cette question afin de programmer les logiciels qui auront la lourde tâche d'écraser un vieillard plutôt qu'un enfant, un homme plutôt que deux femmes etc. Les résultats sont à la fois effrayants, accablants et révélateurs. Fondée sur les choix effectués par quarante millions de personnes originaires de 233 pays différents sur les cas de figure les plus divers, cette étude confirme que les valeurs morales varient d'une culture à l'autre et sont, par conséquent, révélatrices de leurs significations sociales : au Japon, la priorité de sauvegarde serait attribuée à ceux qui respectent les règles sociales ; en Occident on cherche à sauver le plus grand nombre ; en France les femmes et les enfants auraient une précellence et en Amérique Latine les riches seraient davantage préservés.

    Alors que la constitution d'une morale universelle chercherait à soustraire l'homme d'une évolution qui le placerait dans ce qu'il a d'animal et son instinct de survie, l'évolution technologique présente une donne inédite dans l'histoire de l'humanité, qui force l'individu, citoyen ordinaire, à choisir qui il doit sacrifier, non plus dans le cadre d'une impulsion naturelle de protection de sa propre vie, mais dans celui d'un choix réfléchi pour protéger la vie de quelqu'un d'autre au détriment de celle d'un autre. Un choix donc rationnel. Il serait, ainsi, une expression des éléments subjectifs qui constituent une culture donnée et révélateur du monde qui nous entoure. 

    Ce choix de Sophie des temps modernes me semble impossible, je n'aurais pas aimé être à la place de ceux qui devront trancher. Je laisse, ainsi, le mot de la fin à Emmanuel Kant, grand penseur de la morale, pour qui son fondement  devait obéir à un seul impératif catégorique, résumé dans la formule générale devenue criante d'actualité : " Agis de telle sorte que la maxime de ta volonté puisse toujours valoir en même temps comme principe d'une législation universelle ". 

     

    Obs: Je n'ai malheureusement pas lu l'article intégralement, ce billet a eu comme point de départ l'interview donné par Jean-François Bonnefon à Yann Barthès le 8 novembre dans son émission Quotidien. Je vous laisse le lien vers l'article paru dans le Magazine Nature : The Moral Machine experiment

    Les références du livre cité : La morale, Francesco Alberoni, Plon, 1996.

     

    « Quelle famille traditionnelle ?A relatividade da moral »
    Partager via Gmail Yahoo! Blogmarks

  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :