論文の概要: Explainable AI for Automated User-specific Feedback in Surgical Skill Acquisition
- arxiv url: http://arxiv.org/abs/2508.02593v1
- Date: Mon, 04 Aug 2025 16:48:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.438492
- Title: Explainable AI for Automated User-specific Feedback in Surgical Skill Acquisition
- Title(参考訳): 外科的スキル獲得におけるユーザ固有のフィードバック自動化のための説明可能なAI
- Authors: Catalina Gomez, Lalithkumar Seenivasan, Xinrui Zou, Jeewoo Yoon, Sirui Chu, Ariel Leong, Patrick Kramer, Yu-Chun Ku, Jose L. Porras, Alejandro Martin-Gomez, Masaru Ishii, Mathias Unberath,
- Abstract要約: 人間-AIを用いた手術訓練における説明可能なAI(XAI)によるフィードバックの有効性について検討した。
我々は、従来のビデオベースのコーチングに対するXAI指導によるフィードバックが、タスク結果、認知的負荷、AI支援学習に対する訓練者の認識に与える影響を比較した。
- 参考スコア(独自算出の注目度): 38.38538970682482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional surgical skill acquisition relies heavily on expert feedback, yet direct access is limited by faculty availability and variability in subjective assessments. While trainees can practice independently, the lack of personalized, objective, and quantitative feedback reduces the effectiveness of self-directed learning. Recent advances in computer vision and machine learning have enabled automated surgical skill assessment, demonstrating the feasibility of automatic competency evaluation. However, it is unclear whether such Artificial Intelligence (AI)-driven feedback can contribute to skill acquisition. Here, we examine the effectiveness of explainable AI (XAI)-generated feedback in surgical training through a human-AI study. We create a simulation-based training framework that utilizes XAI to analyze videos and extract surgical skill proxies related to primitive actions. Our intervention provides automated, user-specific feedback by comparing trainee performance to expert benchmarks and highlighting deviations from optimal execution through understandable proxies for actionable guidance. In a prospective user study with medical students, we compare the impact of XAI-guided feedback against traditional video-based coaching on task outcomes, cognitive load, and trainees' perceptions of AI-assisted learning. Results showed improved cognitive load and confidence post-intervention. While no differences emerged between the two feedback types in reducing performance gaps or practice adjustments, trends in the XAI group revealed desirable effects where participants more closely mimicked expert practice. This work encourages the study of explainable AI in surgical education and the development of data-driven, adaptive feedback mechanisms that could transform learning experiences and competency assessment.
- Abstract(参考訳): 伝統的な外科的スキル獲得は、専門家のフィードバックに大きく依存するが、直接アクセスは、主観的な評価において、教員の可用性と可変性によって制限される。
研修生は独立して実践することができるが、パーソナライズ、客観的、定量的なフィードバックの欠如により、自己指導型学習の有効性が低下する。
近年のコンピュータビジョンと機械学習の進歩により、自動手術スキル評価が可能となり、自動能力評価の可能性が実証された。
しかし、そのような人工知能(AI)によるフィードバックがスキル獲得に寄与するかどうかは不明である。
本稿では,手術訓練におけるXAI(説明可能なAI)によるフィードバックの有効性について,人間-AI研究を通して検討する。
我々はXAIを利用したシミュレーションベースのトレーニングフレームワークを作成し、ビデオを分析し、原始的なアクションに関連する外科的スキルプロキシを抽出する。
我々の介入は、訓練生のパフォーマンスを専門家のベンチマークと比較し、実行可能なガイダンスのための理解可能なプロキシを通して最適な実行から逸脱を強調することで、自動化されたユーザ固有のフィードバックを提供する。
医学生を対象とした先進的なユーザスタディでは、従来のビデオベースのコーチングに対するXAI指導によるフィードバックが、タスク成果、認知的負荷、AI支援学習に対する訓練者の認識に与える影響を比較した。
その結果, 認知負荷が改善し, 介入後の信頼度が向上した。
XAIグループの傾向は,2つのフィードバックタイプ間でパフォーマンスギャップの低減や実践の調整に違いはみられなかったが,専門家の実践をより密に模倣する望ましい効果が示された。
この研究は、外科教育における説明可能なAIの研究と、学習経験や能力評価を変革することのできるデータ駆動型適応フィードバックメカニズムの開発を促進する。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - RLIF: Interactive Imitation Learning as Reinforcement Learning [56.997263135104504]
我々は,対話型模倣学習と類似するが,さらに実践的な仮定の下で,非政治強化学習によってパフォーマンスが向上できることを実証する。
提案手法は,ユーザ介入信号を用いた強化学習を報奨として利用する。
このことは、インタラクティブな模倣学習において介入する専門家がほぼ最適であるべきだという仮定を緩和し、アルゴリズムが潜在的に最適でない人間の専門家よりも改善される行動を学ぶことを可能にする。
論文 参考訳(メタデータ) (2023-11-21T21:05:21Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Advancing Human-AI Complementarity: The Impact of User Expertise and
Algorithmic Tuning on Joint Decision Making [10.890854857970488]
ユーザのドメイン知識、AIシステムのメンタルモデル、レコメンデーションへの信頼など、多くの要因がヒューマンAIチームの成功に影響を与える可能性がある。
本研究は,非自明な血管ラベル作成作業において,血管が流れているか停止しているかを被験者に示すことを目的とした。
以上の結果から,AI-Assistantからの推薦はユーザの意思決定に役立つが,AIに対するユーザベースラインのパフォーマンスや,AIエラー型の相補的チューニングといった要因は,チーム全体のパフォーマンスに大きな影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-08-16T21:39:58Z) - Enabling AI and Robotic Coaches for Physical Rehabilitation Therapy:
Iterative Design and Evaluation with Therapists and Post-Stroke Survivors [66.07833535962762]
人工知能(AI)とロボットコーチは、社会的相互作用を通じてリハビリテーション運動における患者の関与を改善することを約束する。
これまでの研究は、AIやロボットコーチの運動を自動的に監視する可能性を探ったが、デプロイは依然として難しい課題だ。
我々は,AIとロボットコーチが患者の運動をどのように操作し,指導するかに関する詳細な設計仕様を提示する。
論文 参考訳(メタデータ) (2021-06-15T22:06:39Z) - Proxy Tasks and Subjective Measures Can Be Misleading in Evaluating
Explainable AI Systems [14.940404609343432]
我々は、XAIシステムを評価するための2つの現在一般的な手法を評価した。
その結果,プロキシタスクによる評価は,実際の意思決定タスクによる評価結果の予測には至らなかった。
我々の研究は、誤解を招く評価手法を採用することで、人間やAI単独よりも確実にパフォーマンスを発揮できる人間とAIチームの開発に向けた進歩が、必然的に鈍化している可能性があることを示唆している。
論文 参考訳(メタデータ) (2020-01-22T22:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。