論文の概要: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- arxiv url: http://arxiv.org/abs/2412.18849v3
- Date: Mon, 09 Jun 2025 10:02:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 21:10:46.849108
- Title: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- Title(参考訳): SWAG:ジェネレーティブベース予測による長期手術ワークフロー予測
- Authors: Maxence Boels, Yang Liu, Prokar Dasgupta, Alejandro Granados, Sebastien Ourselin,
- Abstract要約: SWAG(Surgical Precipative Generation)は、位相認識と予測を生成的アプローチで組み合わせたフレームワークである。
本稿では,単一パス(SP)と自己回帰(AR)の2つの異なる復号法について検討する。
位相予測の精度を高めるために,クラス遷移確率を用いた新しい埋め込み手法を提案する。
- 参考スコア(独自算出の注目度): 43.95663763660549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While existing approaches excel at recognising current surgical phases, they provide limited foresight and intraoperative guidance into future procedural steps. Similarly, current anticipation methods are constrained to predicting short-term and single events, neglecting the dense, repetitive, and long sequential nature of surgical workflows. To address these needs and limitations, we propose SWAG (Surgical Workflow Anticipative Generation), a framework that combines phase recognition and anticipation using a generative approach. This paper investigates two distinct decoding methods - single-pass (SP) and auto-regressive (AR) - to generate sequences of future surgical phases at minute intervals over long horizons. We propose a novel embedding approach using class transition probabilities to enhance the accuracy of phase anticipation. Additionally, we propose a generative framework using remaining time regression to classification (R2C). SWAG was evaluated on two publicly available datasets, Cholec80 and AutoLaparo21. Our single-pass model with class transition probability embeddings (SP*) achieves 32.1% and 41.3% F1 scores over 20 and 30 minutes on Cholec80 and AutoLaparo21, respectively. Moreover, our approach competes with existing methods on phase remaining time regression, achieving weighted mean absolute errors of 0.32 and 0.48 minutes for 2- and 3-minute horizons. SWAG demonstrates versatility across generative decoding frame works and classification and regression tasks to create temporal continuity between surgical workflow recognition and anticipation. Our method provides steps towards intraoperative surgical workflow generation for anticipation. Project: https://maxboels.github.io/swag.
- Abstract(参考訳): 既存のアプローチは、現在の外科的段階を認識するのに優れているが、将来の手続き手順に対する監視と術中指導は限られている。
同様に、現在の予測手法は、手術ワークフローの厳密で反復的で長い連続的な性質を無視して、短期および単一事象を予測することに制約される。
これらのニーズと制約に対処するため、生成的アプローチを用いて位相認識と予測を組み合わせたフレームワークであるSWAG(Surgical Workflow Precipative Generation)を提案する。
本稿では, 単一パス (SP) と自己回帰 (AR) の2つの異なる復号法について検討した。
位相予測の精度を高めるために,クラス遷移確率を用いた新しい埋め込み手法を提案する。
さらに,残時間回帰を分類(R2C)に用いた生成フレームワークを提案する。
SWAGはColec80とAutoLaparo21という2つの公開データセットで評価された。
クラス遷移確率埋め込み(SP*)を用いたシングルパスモデルでは,Colec80とAutoLaparo21でそれぞれ20分30分で32.1%,41.3%のF1スコアが得られる。
さらに,2分間および3分間の地平線における平均絶対誤差0.32と0.48の重み付き平均誤差を達成するため,位相残留時間回帰に関する既存の手法と競合する。
SWAGは、生成的復号フレームワークと分類および回帰タスクの多角性を示し、外科的ワークフロー認識と予測の間の時間的連続性を生成する。
本手法は,術中ワークフロー生成のためのステップを提供する。
プロジェクト:https://maxboels.github.io/swag.com
関連論文リスト
- CoStoDet-DDPM: Collaborative Training of Stochastic and Deterministic Models Improves Surgical Workflow Anticipation and Recognition [12.360775476995169]
拡散確率モデル(DDPM)による固有モデリングを取り入れた革新的枠組みを導入する。
私たちのアプローチの中心は、共同学習のパラダイムです。
Cholec80データセットを用いた実験では,予測タスクでは,最先端手法と比較してeMAEが16%削減された。
論文 参考訳(メタデータ) (2025-03-13T09:59:05Z) - SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning [46.57714869178571]
本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
論文 参考訳(メタデータ) (2024-03-10T12:46:33Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - DIR-AS: Decoupling Individual Identification and Temporal Reasoning for
Action Segmentation [84.78383981697377]
完全な教師付きアクションセグメンテーションは、高密度アノテーションによるフレームワイドアクション認識に作用し、しばしば過剰なセグメンテーションの問題に悩まされる。
本研究では, 時間的ピラミッド拡張と時間的ピラミッドプールを併用して, 効率的なマルチスケールアテンションを実現するため, 新たなローカル・グローバルアテンション機構を開発した。
GTEAでは82.8%(+2.6%)、Breakfastでは74.7%(+1.2%)の精度を実現し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2023-04-04T20:27:18Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - Multi-Task Temporal Convolutional Networks for Joint Recognition of
Surgical Phases and Steps in Gastric Bypass Procedures [13.338427746090796]
腹腔鏡下胃バイパス術における2つの関連外科的活動,フェーズとステップを紹介した。
MTMS-TCN(Multi-task Multi-Stage Temporal Convolutional Network)とCNN(Multi-task Convolutional Neural Network)トレーニングのセットアップを提案する。
手術手順40の大規模ビデオデータセット(Bypass40)について,提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-24T11:18:19Z) - TTPP: Temporal Transformer with Progressive Prediction for Efficient
Action Anticipation [46.28067541184604]
ビデオアクション予測は、観察されたフレームから将来のアクションカテゴリを予測することを目的としている。
現在の最先端のアプローチは主に、履歴情報を隠された状態にエンコードするために、リカレントニューラルネットワークを利用する。
本稿では,プログレッシブ予測フレームワークを用いた簡易かつ効率的な時間変換器を提案する。
論文 参考訳(メタデータ) (2020-03-07T07:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。