論文の概要: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- arxiv url: http://arxiv.org/abs/2412.18849v1
- Date: Wed, 25 Dec 2024 09:29:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:28:25.338371
- Title: SWAG: Long-term Surgical Workflow Prediction with Generative-based Anticipation
- Title(参考訳): SWAG:ジェネレーティブベース予測による長期手術ワークフロー予測
- Authors: Maxence Boels, Yang Liu, Prokar Dasgupta, Alejandro Granados, Sebastien Ourselin,
- Abstract要約: SWAG(Surgical Precipative Generation, SWAG)は, 位相認識と手術の長期予測のための統合された枠組みである。
SWAGは、単一パス(SP)と自己回帰(AR)の2つの生成復号法を用いて、将来の手術フェーズのシーケンスを予測する。
新しい事前知識埋め込み機構は予測予測の精度を高める。
- 参考スコア(独自算出の注目度): 43.95663763660549
- License:
- Abstract: While existing recognition approaches excel at identifying current surgical phases, they provide limited foresight into future procedural steps, restricting their intraoperative utility. Similarly, current anticipation methods are constrained to predicting short-term events or singular future occurrences, neglecting the dynamic and sequential nature of surgical workflows. To address these limitations, we propose SWAG (Surgical Workflow Anticipative Generation), a unified framework for phase recognition and long-term anticipation of surgical workflows. SWAG employs two generative decoding methods -- single-pass (SP) and auto-regressive (AR) -- to predict sequences of future surgical phases. A novel prior knowledge embedding mechanism enhances the accuracy of anticipatory predictions. The framework addresses future phase classification and remaining time regression tasks. Additionally, a regression-to-classification (R2C) method is introduced to map continuous predictions to discrete temporal segments. SWAG's performance was evaluated on the Cholec80 and AutoLaparo21 datasets. The single-pass classification model with prior knowledge embeddings (SWAG-SP\*) achieved 53.5\% accuracy in 15-minute anticipation on AutoLaparo21, while the R2C model reached 60.8\% accuracy on Cholec80. SWAG's single-pass regression approach outperformed existing methods for remaining time prediction, achieving weighted mean absolute errors of 0.32 and 0.48 minutes for 2- and 3-minute horizons, respectively. SWAG demonstrates versatility across classification and regression tasks, offering robust tools for real-time surgical workflow anticipation. By unifying recognition and anticipatory capabilities, SWAG provides actionable predictions to enhance intraoperative decision-making.
- Abstract(参考訳): 既存の認識アプローチは、現在の外科的段階を特定するのに優れているが、将来の手続き段階に対する限定的な監視を提供し、術中の有用性を制限している。
同様に、現在の予測手法は、手術ワークフローの動的かつシーケンシャルな性質を無視して、短期的な事象や特異な将来の事象を予測することに制約される。
これらの制約に対処するために、位相認識と外科的ワークフローの長期予測のための統合フレームワークであるSWAG(Surgical Workflow Precipative Generation)を提案する。
SWAGは、単一パス(SP)と自己回帰(AR)の2つの生成復号法を用いて、将来の手術フェーズのシーケンスを予測する。
新しい事前知識埋め込み機構は予測予測の精度を高める。
このフレームワークは、将来のフェーズ分類と残りの時間回帰タスクに対処する。
さらに、連続予測を離散時間セグメントにマッピングするために回帰分類法(R2C)を導入する。
SWAGのパフォーマンスはColec80とAutoLaparo21データセットで評価された。
先行知識埋め込みを用いたシングルパス分類モデル(SWAG-SP\*)は,AutoLaparo21で15分間の予測で53.5\%,Cholec80でR2Cモデルは60.8\%の精度を達成した。
SWAGのシングルパス回帰手法は既存の時間予測法よりも優れており、2分間と3分間の地平線において平均絶対誤差0.32と0.48の重み付き平均誤差を達成した。
SWAGは分類タスクと回帰タスクにまたがって汎用性を示し、リアルタイムの外科的ワークフロー予測のための堅牢なツールを提供する。
認識と予測能力を統一することにより、SWAGは術中意思決定を強化するために実行可能な予測を提供する。
関連論文リスト
- PitRSDNet: Predicting Intra-operative Remaining Surgery Duration in Endoscopic Pituitary Surgery [7.291847156946912]
本稿では,下垂体手術中の残存手術期間(RSD)を予測するためのPitRSDNetを提案する。
PitRSDNet はワークフロー知識を RSD 予測に統合する。1) ステップと RSD を同時に予測するためのマルチタスク学習,2) 時間的学習と推論におけるコンテキストとしての事前ステップ。
PitRSDNetは、88のビデオを備えた新しい内視鏡下垂体手術データセットでトレーニングされ、従来の統計的および機械学習手法よりも競争力のあるパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-09-25T15:03:22Z) - SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning [46.57714869178571]
本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
論文 参考訳(メタデータ) (2024-03-10T12:46:33Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - Real-time Prediction for Mechanical Ventilation in COVID-19 Patients
using A Multi-task Gaussian Process Multi-objective Self-attention Network [9.287068570192057]
本報告では, 院内感染患者の機械的換気を要す確率を予測できるロバスト・イン・タイム・予測器を提案する。
新型コロナウイルス患者のリスク予測の課題は、臨床現場で観察された患者のバイタルや検査室の大きなばらつきと不規則なサンプリングにある。
予測タスクを多目的学習フレームワークに設定し、すべての時点におけるリスクスコアを完全に最適化する。
論文 参考訳(メタデータ) (2021-02-01T20:35:22Z) - TTPP: Temporal Transformer with Progressive Prediction for Efficient
Action Anticipation [46.28067541184604]
ビデオアクション予測は、観察されたフレームから将来のアクションカテゴリを予測することを目的としている。
現在の最先端のアプローチは主に、履歴情報を隠された状態にエンコードするために、リカレントニューラルネットワークを利用する。
本稿では,プログレッシブ予測フレームワークを用いた簡易かつ効率的な時間変換器を提案する。
論文 参考訳(メタデータ) (2020-03-07T07:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。