Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

Colloques du Collège de France - Collège de France

Colloque - Implications philosophiques de l'IA - Denis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of Thought

27 May 2025

Description

Claudine TiercelinMétaphysique et philosophie de la connaissanceAnnée 2024-2025Colloque - Implications philosophiques de l'IADenis Bonnay : Faut-il réfléchir avant de parler ? Ou les implications philosophiques du Chain of ThoughtDenis BonnayUniversité Paris NanterreRésuméLes derniers progrès en date de l'IA générative reposent sur une technique appelée « Chain of Thought » (CoT), qui consiste à faire en sorte que la machine « réfléchisse » avant de répondre. Il s'agit initialement d'une stratégie utilisée dans les requêtes adressées aux Large Language Models (LLM) classiques, stratégie consistant à demander dans la requête le raisonnement conduisant au résultat avant le résultat lui-même, plutôt que directement et uniquement le résultat (Wei 2023). Cette façon de faire a ensuite été internalisée, avec des LLMs intégrant nativement le CoT tels que les modèles o1 ou o3 d'openAI ou r1 de DeepSeek.Le CoT représente une avancée technologique importante, avec une amélioration significative des performances pour les tâches complexes. Au-delà, je voudrais interroger dans cet exposé la signification de cette technologie pour les débats philosophiques concernant la nature des compétences des modèles d'IA générative, débats qui opposent ceux qui pensent que ces modèles possèdent en propre des compétences cognitives et ceux qui considèrent qu'ils ne font que simuler de telles compétences. Plus précisément, je soutiendrai que ces débats doivent être tranchés sur la base d'une analyse fonctionnelle des LLMs et que l'analyse fonctionnelle des LLMs intégrant nativement le CoT donne de nouveaux arguments contre la thèse simulationniste.-- Colloque organisé par Jacques-Henri Vollet, codirecteur du Groupe de recherche en épistémologie (GRE) au Collège de France, et Alexandre Declos, directeur du Groupe d'études en métaphysique (GEM).PrésentationCe colloque vise à explorer les implications philosophiques de l'intelligence artificielle (IA) à travers trois axes majeurs : épistémologique, esthétique et éthique.Sur le plan épistémologique, nous interrogerons la nature de la connaissance produite par l'IA : peut-elle être qualifiée de véritable connaissance ou s'agit-il d'une simple corrélation statistique ? Quelles conséquences l'IA a-t-elle sur les notions de justification, de vérité et d'explicabilité en science et dans la prise de décision ?D'un point de vue esthétique, nous examinerons le statut artistique et la valeur esthétique des productions de l'IA. Peut-on attribuer une forme d'intentionnalité ou d'auctorialité à ces systèmes ? L'IA peut-elle créer de l'art ? N'est-elle qu'un outil artistique parmi d'autres ?Enfin, l'axe éthique portera sur les responsabilités associées au développement et à l'usage de l'IA. Comment assurer une IA alignée sur des valeurs humaines ? Quels sont les défis liés à la partialité algorithmique, à la surveillance de masse et aux impacts socio-économiques de l'automatisation ?Ce colloque réunira des philosophes, des chercheurs en intelligence artificielle et des experts en éthique du numérique afin de proposer une réflexion interdisciplinaire sur ces enjeux cruciaux.

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.