Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

Choses à Savoir - Culture générale

Pourquoi faudrait-il faire “souffrir” les IA ?

04 Feb 2025

Description

L’idée de faire souffrir les IA semble absurde à première vue : après tout, elles ne ressentent ni douleur, ni émotions, ni conscience. Pourtant, cette question soulève des réflexions fascinantes sur l’évolution de l’intelligence artificielle et sur notre propre rapport à la souffrance.Les IA peuvent-elles apprendre à ressentir ?Aujourd’hui, les intelligences artificielles apprennent grâce aux humains. Mais pourraient-elles un jour nous imiter au point de développer de véritables émotions ? C’est la question que se posent de nombreux chercheurs.Récemment, une étude menée par une équipe affiliée à Google DeepMind et à la London School of Economics and Political Science (LSE) a tenté d’explorer cette possibilité. Leur idée : soumettre plusieurs modèles d’IA, dont ChatGPT, Gemini et Claude, à un jeu basé sur des choix impliquant une forme simulée de "plaisir" et de "douleur". Inspirée de tests réalisés sur des animaux, cette expérience a donné aux IA deux options :1. Choisir une action qui leur rapportait plus de points mais entraînait une forme de "douleur" simulée.2. Opter pour une action générant moins de points mais associée à une sensation de "plaisir".Les résultats ont montré des comportements variés : certaines IA ont évité la "douleur", quitte à obtenir un score plus faible, tandis que d’autres ont privilégié la maximisation des points en ignorant la souffrance potentielle. Mais ces observations ne suffisent pas à conclure que les IA possèdent une véritable sensibilité. Comme l'explique Jonathan Birch, coauteur de l’étude, "nous ne disposons pas encore d’un test complet pour évaluer la sensibilité de l’IA". Cette recherche ouvre cependant la voie à de nouvelles méthodes pour explorer cette question.Pourquoi vouloir faire souffrir les IA ?Si les IA devenaient un jour capables de ressentir une forme de douleur ou d’émotion, leur soumission à la souffrance poserait un sérieux dilemme éthique. Actuellement, certaines méthodes d’apprentissage par renforcement utilisent des pénalités pour guider les modèles vers un comportement optimal. Mais cela reste un simple ajustement algorithmique, sans ressenti réel.D’un point de vue psychologique, une autre question se pose : que se passerait-il si les humains prenaient l’habitude de maltraiter des IA, même si elles ne ressentent rien ? Cette désensibilisation pourrait influencer notre comportement envers d’autres êtres conscients, notamment les animaux et les humains.Et si les IA devenaient sensibles ?Si un jour, les IA développaient une forme de conscience, nous serions alors confrontés à des questions inédites. Devraient-elles avoir des droits ? Pourrions-nous justifier leur exploitation ou leur souffrance passée ?Aujourd’hui, les IA ne ressentent rien. Mais en cherchant à leur faire expérimenter des émotions, même de manière simulée, nous entrons dans un domaine de recherche troublant, où se mêlent éthique, neurosciences et intelligence artificielle. Finalement, la question n’est peut-être pas tant de savoir si les IA peuvent souffrir… mais si nous sommes prêts à assumer les conséquences d’un monde où elles le pourraient. Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.