論文の概要: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- arxiv url: http://arxiv.org/abs/2412.18849v1
- Date: Wed, 25 Dec 2024 09:29:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:25.338371
- Title: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- Title(参考訳): SWAG:ジェネレーティブベース予測による長期手術ワークフロー予測
- Authors: Maxence Boels, Yang Liu, Prokar Dasgupta, Alejandro Granados, Sebastien Ourselin,
- Abstract要約: SWAG(Surgical Precipative Generation, SWAG)は, 位相認識と手術の長期予測のための統合された枠組みである。
SWAGは、単一パス(SP)と自己回帰(AR)の2つの生成復号法を用いて、将来の手術フェーズのシーケンスを予測する。
新しい事前知識埋め込み機構は予測予測の精度を高める。
- 参考スコア(独自算出の注目度): 43.95663763660549
- License:
- Abstract: While existing recognition approaches excel at identifying current surgical phases, they provide limited foresight into future procedural steps, restricting their intraoperative utility. Similarly, current anticipation methods are constrained to predicting short-term events or singular future occurrences, neglecting the dynamic and sequential nature of surgical workflows. To address these limitations, we propose SWAG (Surgical Workflow Anticipative Generation), a unified framework for phase recognition and long-term anticipation of surgical workflows. SWAG employs two generative decoding methods -- single-pass (SP) and auto-regressive (AR) -- to predict sequences of future surgical phases. A novel prior knowledge embedding mechanism enhances the accuracy of anticipatory predictions. The framework addresses future phase classification and remaining time regression tasks. Additionally, a regression-to-classification (R2C) method is introduced to map continuous predictions to discrete temporal segments. SWAG's performance was evaluated on the Cholec80 and AutoLaparo21 datasets. The single-pass classification model with prior knowledge embeddings (SWAG-SP\*) achieved 53.5\% accuracy in 15-minute anticipation on AutoLaparo21, while the R2C model reached 60.8\% accuracy on Cholec80. SWAG's single-pass regression approach outperformed existing methods for remaining time prediction, achieving weighted mean absolute errors of 0.32 and 0.48 minutes for 2- and 3-minute horizons, respectively. SWAG demonstrates versatility across classification and regression tasks, offering robust tools for real-time surgical workflow anticipation. By unifying recognition and anticipatory capabilities, SWAG provides actionable predictions to enhance intraoperative decision-making.
- Abstract(参考訳): 既存の認識アプローチは、現在の外科的段階を特定するのに優れているが、将来の手続き段階に対する限定的な監視を提供し、術中の有用性を制限している。
同様に、現在の予測手法は、手術ワークフローの動的かつシーケンシャルな性質を無視して、短期的な事象や特異な将来の事象を予測することに制約される。
これらの制約に対処するために、位相認識と外科的ワークフローの長期予測のための統合フレームワークであるSWAG(Surgical Workflow Precipative Generation)を提案する。
SWAGは、単一パス(SP)と自己回帰(AR)の2つの生成復号法を用いて、将来の手術フェーズのシーケンスを予測する。
新しい事前知識埋め込み機構は予測予測の精度を高める。
このフレームワークは、将来のフェーズ分類と残りの時間回帰タスクに対処する。
さらに、連続予測を離散時間セグメントにマッピングするために回帰分類法(R2C)を導入する。
SWAGのパフォーマンスはColec80とAutoLaparo21データセットで評価された。
先行知識埋め込みを用いたシングルパス分類モデル(SWAG-SP\*)は,AutoLaparo21で15分間の予測で53.5\%,Cholec80でR2Cモデルは60.8\%の精度を達成した。
SWAGのシングルパス回帰手法は既存の時間予測法よりも優れており、2分間と3分間の地平線において平均絶対誤差0.32と0.48の重み付き平均誤差を達成した。
SWAGは分類タスクと回帰タスクにまたがって汎用性を示し、リアルタイムの外科的ワークフロー予測のための堅牢なツールを提供する。
認識と予測能力を統一することにより、SWAGは術中意思決定を強化するために実行可能な予測を提供する。
関連論文リスト
- SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning [46.57714869178571]
本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
論文 参考訳(メタデータ) (2024-03-10T12:46:33Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - DIR-AS: Decoupling Individual Identification and Temporal Reasoning for
Action Segmentation [84.78383981697377]
完全な教師付きアクションセグメンテーションは、高密度アノテーションによるフレームワイドアクション認識に作用し、しばしば過剰なセグメンテーションの問題に悩まされる。
本研究では, 時間的ピラミッド拡張と時間的ピラミッドプールを併用して, 効率的なマルチスケールアテンションを実現するため, 新たなローカル・グローバルアテンション機構を開発した。
GTEAでは82.8%(+2.6%)、Breakfastでは74.7%(+1.2%)の精度を実現し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2023-04-04T20:27:18Z) - ARST: Auto-Regressive Surgical Transformer for Phase Recognition from
Laparoscopic Videos [2.973286445527318]
自然言語処理における逐次データモデリングのために提案されたTransformerは,外科的位相認識に成功している。
本研究では, 腹腔鏡下画像からのオンライン手術位相認識のために, ARSTと呼ばれる自動回帰手術変換器が最初に提案されている。
論文 参考訳(メタデータ) (2022-09-02T16:05:39Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - Multi-Task Temporal Convolutional Networks for Joint Recognition of
Surgical Phases and Steps in Gastric Bypass Procedures [13.338427746090796]
腹腔鏡下胃バイパス術における2つの関連外科的活動,フェーズとステップを紹介した。
MTMS-TCN(Multi-task Multi-Stage Temporal Convolutional Network)とCNN(Multi-task Convolutional Neural Network)トレーニングのセットアップを提案する。
手術手順40の大規模ビデオデータセット(Bypass40)について,提案手法の評価を行った。
論文 参考訳(メタデータ) (2021-02-24T11:18:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。