Menu
Sign In Search Podcasts Charts People & Topics Add Podcast API Pricing
Podcast Image

Underscore_

Il piège les LLMs avec des bombes à retardement — Wassim Bouaziz

14 Jul 2025

Description

On explore comment des modèles de langage peuvent être sabotés de l’intérieur via leurs données d’entraînement, jusqu’à déclencher des comportements malveillants à une date ou dans un contexte précis. Avec Wassim Bouaziz, doctorant entre Polytechnique et Meta, nous expliquons les principes des portes dérobées et des déclencheurs cachés, et ce que cela implique pour la sécurité et l’alignement des assistants IA. Vous découvrirez des pistes de détection et de mitigation, et pourquoi la conception des jeux de données peut se retourner contre vos propres systèmes.En plateau Michaël de Marliave — animateur Matthieu Lambda — chroniqueur Wassim Bouaziz — invité Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Audio
Featured in this Episode

No persons identified in this episode.

Transcription

This episode hasn't been transcribed yet

Help us prioritize this episode for transcription by upvoting it.

0 upvotes
🗳️ Sign in to Upvote

Popular episodes get transcribed faster

Comments

There are no comments yet.

Please log in to write the first comment.