論文の概要: Adaptive Graph Learning from Spatial Information for Surgical Workflow Anticipation
- arxiv url: http://arxiv.org/abs/2412.06454v1
- Date: Mon, 09 Dec 2024 12:53:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:53:15.760388
- Title: Adaptive Graph Learning from Spatial Information for Surgical Workflow Anticipation
- Title(参考訳): 外科的作業予測のための空間情報からの適応的グラフ学習
- Authors: Francis Xiatian Zhang, Jingjing Deng, Robert Lieck, Hubert P. H. Shum,
- Abstract要約: 本稿では,新しい空間表現に基づく外科的ワークフロー予測のための適応型グラフ学習フレームワークを提案する。
我々は、異なる時間軸の学習目標のバランスを保ち、制約のない予測を可能にするマルチ水平目標を開発する。
- 参考スコア(独自算出の注目度): 9.329654505950199
- License:
- Abstract: Surgical workflow anticipation is the task of predicting the timing of relevant surgical events from live video data, which is critical in Robotic-Assisted Surgery (RAS). Accurate predictions require the use of spatial information to model surgical interactions. However, current methods focus solely on surgical instruments, assume static interactions between instruments, and only anticipate surgical events within a fixed time horizon. To address these challenges, we propose an adaptive graph learning framework for surgical workflow anticipation based on a novel spatial representation, featuring three key innovations. First, we introduce a new representation of spatial information based on bounding boxes of surgical instruments and targets, including their detection confidence levels. These are trained on additional annotations we provide for two benchmark datasets. Second, we design an adaptive graph learning method to capture dynamic interactions. Third, we develop a multi-horizon objective that balances learning objectives for different time horizons, allowing for unconstrained predictions. Evaluations on two benchmarks reveal superior performance in short-to-mid-term anticipation, with an error reduction of approximately 3% for surgical phase anticipation and 9% for remaining surgical duration anticipation. These performance improvements demonstrate the effectiveness of our method and highlight its potential for enhancing preparation and coordination within the RAS team. This can improve surgical safety and the efficiency of operating room usage.
- Abstract(参考訳): 外科的ワークフロー予測は、ロボット支援手術(RAS)において重要な、ライブビデオデータから関連する外科的イベントのタイミングを予測するタスクである。
正確な予測は、外科的相互作用をモデル化するために空間情報を使用する必要がある。
しかし、現在の方法では、手術器具のみに焦点をあて、楽器間の静的相互作用を仮定し、固定時間帯内でのみ手術イベントを予測している。
これらの課題に対処するために,新しい空間表現に基づく外科的ワークフロー予測のための適応型グラフ学習フレームワークを提案する。
まず,手術器具や目標のバウンディングボックスに基づく空間情報の新たな表現について紹介する。
これらは2つのベンチマークデータセットに追加のアノテーションに基づいてトレーニングされています。
第2に、動的相互作用をキャプチャする適応グラフ学習法を設計する。
第3に、異なる時間軸の学習目標のバランスを保ち、制約のない予測を可能にするマルチ水平目標を開発する。
2つのベンチマークによる評価の結果,手術期予測では約3%,手術期間予測では9%の誤差低下がみられた。
これらの性能改善は,本手法の有効性を示し,RASチームにおける準備と調整の強化の可能性を強調した。
これにより手術の安全性と手術室の使用効率が向上する。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Jumpstarting Surgical Computer Vision [2.7396997668655163]
我々は、多様な外科的データセットを柔軟に活用するために、自己教師付き学習を採用する。
腹腔鏡下胆嚢摘出術と腹腔鏡下子宮摘出術の位相認識と安全性の検討を行った。
事前トレーニングデータセットの構成は、さまざまな下流タスクに対するSSLメソッドの有効性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-12-10T18:54:16Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose
Estimation of Surgical Instruments [66.74633676595889]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Using Hand Pose Estimation To Automate Open Surgery Training Feedback [0.0]
本研究は,外科医の自動訓練における最先端のコンピュータビジョンアルゴリズムの利用を促進することを目的としている。
2次元手のポーズを推定することにより,手の動きをモデル化し,手術器具との相互作用をモデル化する。
論文 参考訳(メタデータ) (2022-11-13T21:47:31Z) - Towards Graph Representation Learning Based Surgical Workflow
Anticipation [15.525314212209562]
外科的ワークフロー予測問題における楽器の動きを表現するためのグラフ表現学習フレームワークを提案する。
提案するグラフ表現では,楽器の境界ボックス情報を連続したフレーム内のグラフノードにマップする。
また、時間とともに機器の軌道や相互作用を表現するために、フレーム間/インストラメント間グラフエッジを構築します。
論文 参考訳(メタデータ) (2022-08-07T21:28:22Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。