論文の概要: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- arxiv url: http://arxiv.org/abs/2412.18849v2
- Date: Thu, 06 Feb 2025 18:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 17:44:01.419354
- Title: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- Title(参考訳): SWAG:ジェネレーティブベース予測による長期手術ワークフロー予測
- Authors: Maxence Boels, Yang Liu, Prokar Dasgupta, Alejandro Granados, Sebastien Ourselin,
- Abstract要約: 位相認識と予測を組み合わせたSWAG(Surgical Precipative Generation)を提案する。
SWAGは分類タスクと回帰タスクの多角性を示し、外科的ワークフローと予測の間に時間的連続性を生み出す。
- 参考スコア(独自算出の注目度): 43.95663763660549
- License:
- Abstract: While existing approaches excel at recognising current surgical phases, they provide limited foresight and intraoperative guidance into future procedural steps. Similarly, current anticipation methods are constrained to predicting short-term and singular events, neglecting the dense and sequential nature of surgical workflows. To address these needs and limitations, we propose SWAG (Surgical Workflow Anticipative Generation), a framework to combine phase recognition and anticipation, using a generative approach for surgical workflow guidance. This paper investigates two distinct decoding methods-single-pass (SP) and auto-regressive (AR)-to generate sequences of future surgical phases at minute intervals over long horizons of up to 60 minutes. We propose a novel embedding approach using prior knowledge to enhance the accuracy of phase anticipation. Additionally, our anticipative framework offers remaining time regression and proposes a regression-to-classification (R2C) method. SWAG's performance was evaluated on the Cholec80 and AutoLaparo21 datasets. Our single-pass model with prior knowledge embeddings (SP*) achieves 49.8% mean accuracy over 18-minute anticipation on AutoLaparo21, while the simple SP with R2C extension reaches 56.6% mean accuracy over the same horizon on Cholec80. Moreover, our approach outperforms existing methods on the phase remaining time regression task, achieving weighted mean absolute errors of 0.32 and 0.48 minutes for 2- and 3-minute horizons, respectively. SWAG demonstrates versatility across classification and regression tasks and creates a temporal continuity between surgical workflow recognition and anticipation. While further studies are required to understand the impact of generative-based anticipation intraoperatively, our method provides steps towards this direction.
- Abstract(参考訳): 既存のアプローチは、現在の外科的段階を認識するのに優れているが、将来の手続き手順に対する監視と術中指導は限られている。
同様に、現在の予測法は、外科的ワークフローの密度とシーケンシャルな性質を無視して、短期的および特異な事象を予測することに制約される。
これらのニーズと限界に対処するため,外科的ワークフロー指導のための生成的アプローチを用いて,位相認識と予測を組み合わせたSWAG(Surgical Workflow Precipative Generation)を提案する。
本稿では, 単一パス(SP)と自己回帰(AR)の2つの異なる復号法について, 最大60分間の長い地平線上での分間隔で, 将来の手術相のシーケンスを生成する。
本稿では,位相予測の精度を高めるために,事前知識を用いた新しい埋め込み手法を提案する。
さらに, 予測フレームワークは残時間回帰を提供し, 回帰分類法(R2C)を提案する。
SWAGのパフォーマンスはColec80とAutoLaparo21データセットで評価された。
先行知識埋め込み(SP*)を用いた単一パスモデルでは,AutoLaparo21で18分間の平均精度が49.8%,Cholec80ではR2C拡張による単純なSPが56.6%に達している。
さらに,2分間と3分間の地平線において,平均絶対誤差0.32と0.48の重み付き平均誤差を達成し,相残時間回帰タスクにおける既存手法よりも優れていた。
SWAGは分類タスクと回帰タスクの多角性を示し、外科的ワークフロー認識と予測の間に時間的連続性を生み出す。
術中における生成的予測の影響を理解するためには,さらなる研究が必要であるが,本手法は,この方向へのステップを提供する。
関連論文リスト
- SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning [46.57714869178571]
本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
論文 参考訳(メタデータ) (2024-03-10T12:46:33Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - DIR-AS: Decoupling Individual Identification and Temporal Reasoning for
Action Segmentation [84.78383981697377]
完全な教師付きアクションセグメンテーションは、高密度アノテーションによるフレームワイドアクション認識に作用し、しばしば過剰なセグメンテーションの問題に悩まされる。
本研究では, 時間的ピラミッド拡張と時間的ピラミッドプールを併用して, 効率的なマルチスケールアテンションを実現するため, 新たなローカル・グローバルアテンション機構を開発した。
GTEAでは82.8%(+2.6%)、Breakfastでは74.7%(+1.2%)の精度を実現し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2023-04-04T20:27:18Z) - ARST: Auto-Regressive Surgical Transformer for Phase Recognition from
Laparoscopic Videos [2.973286445527318]
自然言語処理における逐次データモデリングのために提案されたTransformerは,外科的位相認識に成功している。
本研究では, 腹腔鏡下画像からのオンライン手術位相認識のために, ARSTと呼ばれる自動回帰手術変換器が最初に提案されている。
論文 参考訳(メタデータ) (2022-09-02T16:05:39Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - Multi-Task Temporal Convolutional Networks for Joint Recognition of
Surgical Phases and Steps in Gastric Bypass Procedures [13.338427746090796]
腹腔鏡下胃バイパス術における2つの関連外科的活動,フェーズとステップを紹介した。
MTMS-TCN(Multi-task Multi-Stage Temporal Convolutional Network)とCNN(Multi-task Convolutional Neural Network)トレーニングのセットアップを提案する。
手術手順40の大規模ビデオデータセット(Bypass40)について,提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-24T11:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。