論文の概要: AI-Driven Evaluation of Surgical Skill via Action Recognition
- arxiv url: http://arxiv.org/abs/2512.24411v1
- Date: Tue, 30 Dec 2025 18:45:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.466724
- Title: AI-Driven Evaluation of Surgical Skill via Action Recognition
- Title(参考訳): 動作認識による外科的スキルのAIによる評価
- Authors: Yan Meng, Daniel A. Donoho, Marcelle Altshuler, Omar Arnaout,
- Abstract要約: マイクロアナコシス性能の自動評価のためのAI駆動型フレームワークを提案する。
マイクロアナコシススキルの5つの側面、例えば、全体的な動作実行、プロシージャクリティカルアクション中の運動品質、一般的な楽器ハンドリングについて評価する。
- 参考スコア(独自算出の注目度): 4.92174988745803
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of effective training and evaluation strategies is critical. Conventional methods for assessing surgical proficiency typically rely on expert supervision, either through onsite observation or retrospective analysis of recorded procedures. However, these approaches are inherently subjective, susceptible to inter-rater variability, and require substantial time and effort from expert surgeons. These demands are often impractical in low- and middle-income countries, thereby limiting the scalability and consistency of such methods across training programs. To address these limitations, we propose a novel AI-driven framework for the automated assessment of microanastomosis performance. The system integrates a video transformer architecture based on TimeSformer, improved with hierarchical temporal attention and weighted spatial attention mechanisms, to achieve accurate action recognition within surgical videos. Fine-grained motion features are then extracted using a YOLO-based object detection and tracking method, allowing for detailed analysis of instrument kinematics. Performance is evaluated along five aspects of microanastomosis skill, including overall action execution, motion quality during procedure-critical actions, and general instrument handling. Experimental validation using a dataset of 58 expert-annotated videos demonstrates the effectiveness of the system, achieving 87.7% frame-level accuracy in action segmentation that increased to 93.62% with post-processing, and an average classification accuracy of 76% in replicating expert assessments across all skill aspects. These findings highlight the system's potential to provide objective, consistent, and interpretable feedback, thereby enabling more standardized, data-driven training and evaluation in surgical education.
- Abstract(参考訳): 効果的なトレーニングと評価戦略の開発が重要である。
外科的熟練度を評価する従来の方法は、典型的には、現場観察または記録された手順の振り返り分析を通じて、専門家の監督に依存している。
しかしながら、これらのアプローチは本質的に主観的であり、ラター間変動の影響を受けやすく、専門家の外科医によるかなりの時間と労力を要する。
これらの要求は低所得国や中所得国では非現実的であり、それによって訓練プログラム全体にわたってそのような手法のスケーラビリティと一貫性が制限される。
これらの制約に対処するため、我々はマイクロアナコシス性能の自動評価のための新しいAI駆動フレームワークを提案する。
このシステムは、TimeSformerに基づくビデオトランスフォーマーアーキテクチャを統合し、階層的時間的注意と重み付けされた空間的注意機構により改善し、手術ビデオ内で正確な行動認識を実現する。
その後、YOLOに基づく物体検出・追跡法を用いて微細な運動特徴を抽出し、楽器キネマティクスの詳細な解析を可能にする。
マイクロアナコシススキルの5つの側面、例えば、全体的な動作実行、プロシージャクリティカルアクション中の運動品質、一般的な楽器ハンドリングについて評価する。
58のエキスパートアノテートビデオのデータセットを用いた実験的な検証は、システムの有効性を実証し、アクションセグメンテーションにおいて87.7%のフレームレベルの精度を達成し、後処理で93.62%まで増加し、すべてのスキル面において専門家アセスメントを再現する平均的な分類精度は76%である。
これらの知見は、客観的で一貫性があり、解釈可能なフィードバックを提供するシステムの可能性を強調し、これにより、外科教育におけるより標準化されたデータ駆動トレーニングと評価を可能にする。
関連論文リスト
- Kinematic-Based Assessment of Surgical Actions in Microanastomosis [4.92174988745803]
マイクロアナコシスにおける自動動作セグメンテーションとパフォーマンスアセスメントのためのAI駆動型フレームワークを提案する。
58人の専門家によるマイクロアナコシスビデオのデータセットは、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2025-12-30T02:18:49Z) - Quantitative Outcome-Oriented Assessment of Microsurgical Anastomosis [7.432334662327386]
本稿では,マイクロサージカル解剖の客観的評価に画像処理技術を用いる定量的フレームワークを提案する。
このアプローチでは、エラーの幾何学的モデリングと、検出とスコアリングのメカニズムを使用する。
その結果, 幾何測定基準は, 本研究で考慮された誤差に対して, 専門家のスコアを効果的に再現できることが示唆された。
論文 参考訳(メタデータ) (2025-08-26T09:14:31Z) - An Automated Machine Learning Framework for Surgical Suturing Action Detection under Class Imbalance [1.2043621020930133]
解釈可能なアウトプットによる外科的動作のリアルタイム検出は,自動的かつリアルタイムな指導フィードバックとスキル開発に不可欠である。
本稿では,経験者および研修医双方から収集した手術行動データに基づいて,自動機械学習手法を用いた迅速な展開手法を提案する。
論文 参考訳(メタデータ) (2025-02-10T12:47:36Z) - Automating Feedback Analysis in Surgical Training: Detection, Categorization, and Assessment [65.70317151363204]
本研究は,非構造化現実記録からの外科的対話を再構築するための最初の枠組みを紹介する。
外科訓練では,ライブ手術中に訓練者に提供する形式的言語フィードバックは,安全性の確保,行動の即時修正,長期的スキル獲得の促進に不可欠である。
本フレームワークは,音声活動の検出,話者ダイアリゼーション,自動音声認識と,幻覚を除去する新たな拡張機能を統合する。
論文 参考訳(メタデータ) (2024-12-01T10:35:12Z) - Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Video-based Formative and Summative Assessment of Surgical Tasks using
Deep Learning [0.8612287536028312]
本稿では,外科的スキル実行の高精度な評価を自動的かつ客観的に行うことができる深層学習(DL)モデルを提案する。
整形性評価は外科的パフォーマンスと相関する視覚特徴のヒートマップを用いて生成される。
論文 参考訳(メタデータ) (2022-03-17T20:07:48Z) - A Review of Computational Approaches for Evaluation of Rehabilitation
Exercises [58.720142291102135]
本稿では,モーションキャプチャシステムを用いたリハビリテーションプログラムにおける患者のパフォーマンスを評価するための計算手法についてレビューする。
エクササイズ評価のための再検討された計算手法は, 離散的な運動スコア, ルールベース, テンプレートベースアプローチの3つのカテゴリに分類される。
論文 参考訳(メタデータ) (2020-02-29T22:18:56Z) - Interpretable Off-Policy Evaluation in Reinforcement Learning by
Highlighting Influential Transitions [48.91284724066349]
強化学習におけるオフ政治評価は、医療や教育などの領域における将来の成果を改善するために観察データを使用する機会を提供する。
信頼区間のような従来の尺度は、ノイズ、限られたデータ、不確実性のために不十分である可能性がある。
我々は,人間専門家が政策評価評価評価の妥当性を分析できるように,ハイブリッドAIシステムとして機能する手法を開発した。
論文 参考訳(メタデータ) (2020-02-10T00:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。