Educational Strategies for Clinical Supervision of Artificial Intelligence UseCitationN Engl J Med. 2025 Aug 21/28;393(8):786–797. doi:10.1056/NEJMra2503232概要本総説は、医療教育における人工知能(AI)、特に大規模言語モデル(LLM)の利用が学習者と教育者に与える影響を分析し、安全かつ効果的に臨床推論へ統合するための監督戦略を提案している。LLMは臨床推論を人間のように流暢に模倣でき、教育現場に急速に浸透している。しかし、過度な依存は「デスキリング(既存スキルの喪失)」「ネバースキリング(スキル未獲得)」「ミススキリング(誤った習慣強化)」を引き起こすリスクがある。そのため教育者は、AI利用を監督しつつ学習者の批判的思考を育む必要がある。DEFT-AI(Diagnosis, Evidence, Feedback, Teaching and AI engagement):診断・証拠・フィードバック・教育・AI利用推奨を軸に、AIとのやり取りを批判的思考の訓練機会に変える枠組み。図1(p.788) では、指導医が研修医のAI使用を観察し、介入の必要性を判断する様子が示される。図2(p.789) は、AI導入に伴うスキル発達の道筋と、デスキリングやミススキリングのリスクを模式化。図3(p.794) では、教育者が学習者にAI使用の過程を問診し、証拠提示や自己評価を促す対話例を提示。図4(p.794) は、センタウル(人とAIで役割分担) と サイボーグ(AIと密接協働) の2つの利用スタイルを示し、状況に応じた柔軟な切り替えが重要とされている。教育者は学習者のAI使用を観察し、どのようにプロンプトを作成し、出力を評価し、意思決定に統合したかを確認する必要がある。AIリテラシー教育として、AIツールの限界やバイアスの評価方法、適切なプロンプト設計、AI出力の検証手法を学習者に教える。低リスク・定型的タスクではAIとの協働(サイボーグ型)を、診断など高リスク領域では人間の判断を主体にAIを補助利用(センタウル型)することが望ましい。AIは医療教育と臨床実践を根本的に変革する潜在力を持つが、過度の依存は学習者の臨床推論能力を損なうリスクがある。教育者はDEFT-AIフレームワークを活用し、AI利用を批判的思考育成の機会に変換することで、学習者が安全かつ効果的にAIを活用できるよう指導すべきである。背景提案されるフレームワーク教育的意義結論
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
SpaceX Said to Pursue 2026 IPO
10 Dec 2025
Bloomberg Tech
Don’t Call It a Comeback
10 Dec 2025
Motley Fool Money
Japan Claims AGI, Pentagon Adopts Gemini, and MIT Designs New Medicines
10 Dec 2025
The Daily AI Show
Eric Larsen on the emergence and potential of AI in healthcare
10 Dec 2025
McKinsey on Healthcare
What it will take for AI to scale (energy, compute, talent)
10 Dec 2025
Azeem Azhar's Exponential View
Reducing Burnout and Boosting Revenue in ASCs
10 Dec 2025
Becker’s Healthcare -- Spine and Orthopedic Podcast