論文の概要: An Automated Machine Learning Framework for Surgical Suturing Action Detection under Class Imbalance
- arxiv url: http://arxiv.org/abs/2502.06407v1
- Date: Mon, 10 Feb 2025 12:47:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:29:35.253355
- Title: An Automated Machine Learning Framework for Surgical Suturing Action Detection under Class Imbalance
- Title(参考訳): クラス不均衡下での外科的縫合動作検出のための機械学習フレームワーク
- Authors: Baobing Zhang, Paul Sullivan, Benjie Tang, Ghulam Nabi, Mustafa Suphi Erden,
- Abstract要約: 解釈可能なアウトプットによる外科的動作のリアルタイム検出は,自動的かつリアルタイムな指導フィードバックとスキル開発に不可欠である。
本稿では,経験者および研修医双方から収集した手術行動データに基づいて,自動機械学習手法を用いた迅速な展開手法を提案する。
- 参考スコア(独自算出の注目度): 1.2043621020930133
- License:
- Abstract: In laparoscopy surgical training and evaluation, real-time detection of surgical actions with interpretable outputs is crucial for automated and real-time instructional feedback and skill development. Such capability would enable development of machine guided training systems. This paper presents a rapid deployment approach utilizing automated machine learning methods, based on surgical action data collected from both experienced and trainee surgeons. The proposed approach effectively tackles the challenge of highly imbalanced class distributions, ensuring robust predictions across varying skill levels of surgeons. Additionally, our method partially incorporates model transparency, addressing the reliability requirements in medical applications. Compared to deep learning approaches, traditional machine learning models not only facilitate efficient rapid deployment but also offer significant advantages in interpretability. Through experiments, this study demonstrates the potential of this approach to provide quick, reliable and effective real-time detection in surgical training environments
- Abstract(参考訳): 腹腔鏡下手術訓練と評価では,自動的かつリアルタイムな指導フィードバックとスキル開発には,解釈可能なアウトプットによるリアルタイムな手術動作の検出が不可欠である。
そのような能力は、機械誘導訓練システムの開発を可能にする。
本稿では,経験者および研修医双方から収集した手術行動データに基づいて,自動機械学習手法を用いた迅速な展開手法を提案する。
提案手法は,高度に不均衡なクラス分布の課題に効果的に対処し,外科医のさまざまなスキルレベルにわたる堅牢な予測を確実にする。
さらに,医療応用における信頼性要件に対処するため,モデルの透明性を部分的に組み込んだ手法を提案する。
ディープラーニングのアプローチと比較して、従来の機械学習モデルは効率的な迅速なデプロイメントを促進するだけでなく、解釈可能性に大きな利点をもたらす。
本研究は, 外科的訓練環境において, 迅速かつ信頼性が高く, 効果的なリアルタイム検出を実現するためのアプローチの可能性を示す。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Learning Hand State Estimation for a Light Exoskeleton [50.05509088121445]
そこで本研究では,光エクソスケトンを用いた手の状態推定手法を提案する。
本研究は,前腕の筋活動と外骨格の運動から得られる情報を用いて,手指の開度とコンプライアンスレベルを再構築する指導的アプローチを構築する。
我々のアプローチは本物の光のエクソスケルトンで検証されている。
論文 参考訳(メタデータ) (2024-11-14T09:12:38Z) - Video-based Surgical Skill Assessment using Tree-based Gaussian Process
Classifier [2.3964255330849356]
本稿では,ビデオデータを用いた外科的スキル評価のための新しいパイプラインを提案する。
このパイプラインには、表現フロー畳み込みニューラルネットワークと、新しいツリーベースのガウスプロセス分類器が組み込まれている。
提案手法は,術者間のスキル向上を促進し,患者の安全性を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-15T21:06:22Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Uncertainty-aware Self-supervised Learning for Cross-domain Technical
Skill Assessment in Robot-assisted Surgery [14.145726158070522]
本稿では,ラベル付きキネマティックデータから未ラベルデータへのドメイン知識の伝達によるスキル評価手法を提案する。
本手法は,ロボット支援手術における手動ラベル付けや手術訓練の事前知識を必要とせず,既存の作業に対して大きな優位性をもたらす。
論文 参考訳(メタデータ) (2023-04-28T01:52:18Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Video-based Surgical Skills Assessment using Long term Tool Tracking [0.3324986723090368]
手術症例ビデオフィードから外科的スキルを自動評価するための動きに基づくアプローチを提案する。
提案されたパイプラインは、まず外科的ツールを確実に追跡し、運動軌跡を作成する。
提案手法と最先端追跡手法を用いて,トランスフォーマーに基づくスキルアセスメントと従来の機械学習手法を比較した。
論文 参考訳(メタデータ) (2022-07-05T18:15:28Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Adversarial Training is Not Ready for Robot Learning [55.493354071227174]
対人訓練は,ノルム有界摂動に耐性のあるディープラーニングモデルを訓練する有効な方法である。
敵訓練により得られたニューラルコントローラが3種類の欠陥を受けることを理論的および実験的に示す。
この結果から, ロボット学習にはまだ対応できていないことが示唆された。
論文 参考訳(メタデータ) (2021-03-15T07:51:31Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。