論文の概要: DSTED: Decoupling Temporal Stabilization and Discriminative Enhancement for Surgical Workflow Recognition
- arxiv url: http://arxiv.org/abs/2512.19387v1
- Date: Mon, 22 Dec 2025 13:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.77225
- Title: DSTED: Decoupling Temporal Stabilization and Discriminative Enhancement for Surgical Workflow Recognition
- Title(参考訳): DSTED:外科的ワークフロー認識のための時間的安定化と差別的強化の分離
- Authors: Yueyao Chen, Kai-Ni Wang, Dario Tayupo, Arnaud Huaulm'e, Krystel Nyangoh Timoh, Pierre Jannin, Qi Dou,
- Abstract要約: 手術ワークフロー認識は、コンピュータによる介入におけるコンテキスト認識とスキルアセスメントを可能にする。
現在の手法では、連続するフレーム間のジッタの予測と曖昧な位相の識別の低さという2つの重要な課題に悩まされている。
本稿では,信頼性のある歴史情報を選択的に伝播し,ハードサンプル強化のための不確実性を明示的にモデル化することで,安定した枠組みを構築することを目的とする。
- 参考スコア(独自算出の注目度): 13.734575975699963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Surgical workflow recognition enables context-aware assistance and skill assessment in computer-assisted interventions. Despite recent advances, current methods suffer from two critical challenges: prediction jitter across consecutive frames and poor discrimination of ambiguous phases. This paper aims to develop a stable framework by selectively propagating reliable historical information and explicitly modeling uncertainty for hard sample enhancement. Methods: We propose a dual-pathway framework DSTED with Reliable Memory Propagation (RMP) and Uncertainty-Aware Prototype Retrieval (UPR). RMP maintains temporal coherence by filtering and fusing high-confidence historical features through multi-criteria reliability assessment. UPR constructs learnable class-specific prototypes from high-uncertainty samples and performs adaptive prototype matching to refine ambiguous frame representations. Finally, a confidence-driven gate dynamically balances both pathways based on prediction certainty. Results: Our method achieves state-of-the-art performance on AutoLaparo-hysterectomy with 84.36% accuracy and 65.51% F1-score, surpassing the second-best method by 3.51% and 4.88% respectively. Ablations reveal complementary gains from RMP (2.19%) and UPR (1.93%), with synergistic effects when combined. Extensive analysis confirms substantial reduction in temporal jitter and marked improvement on challenging phase transitions. Conclusion: Our dual-pathway design introduces a novel paradigm for stable workflow recognition, demonstrating that decoupling the modeling of temporal consistency and phase ambiguity yields superior performance and clinical applicability.
- Abstract(参考訳): 目的: 外科的ワークフロー認識により, コンピュータによる介入におけるコンテキスト認識支援とスキルアセスメントが可能となる。
近年の進歩にもかかわらず、現在の手法には2つの重要な課題がある。
本稿では,信頼性のある歴史情報を選択的に伝播し,ハードサンプル強化のための不確実性を明示的にモデル化することで,安定した枠組みを構築することを目的とする。
方法: 信頼性の高いメモリ伝搬 (RMP) と不確かさを意識したプロトタイプ検索 (UPR) を備えたデュアルパスウェイフレームワークDSTEDを提案する。
RMPは、多基準信頼性評価により、高信頼の歴史的特徴をフィルタリングし、融合することにより、時間的コヒーレンスを維持している。
UPRは、高い不確かさサンプルから学習可能なクラス固有のプロトタイプを構築し、不明瞭なフレーム表現を洗練させるために適応的なプロトタイプマッチングを実行する。
最後に、信頼駆動ゲートは、予測確実性に基づいて、両方の経路を動的にバランスさせる。
結果:AutoLaparo-hysterectomyでは84.36%の精度,65.51%のF1スコアが得られた。
アブレーションはRMP(2.19%)とUPR(1.93%)の相補的な増加を示し、組み合わせると相乗効果が生じる。
急激な解析により、時間ジッタの大幅な減少と、挑戦的な相転移の顕著な改善が確認された。
結論:我々のデュアルパスウェイ設計は,時間的一貫性と位相あいまいさのモデリングを分離することで,優れた性能と臨床応用性が得られることを示す,安定したワークフロー認識のための新しいパラダイムを導入している。
関連論文リスト
- Open-World Deepfake Attribution via Confidence-Aware Asymmetric Learning [78.92934995292113]
本稿では,既知の偽造と新規な偽造の信頼のバランスをとる,信頼を意識した非対称学習(CAL)フレームワークを提案する。
CALは従来手法を一貫して上回り、既知の偽造と新しい偽造の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-12-14T12:31:28Z) - Beyond Confidence: Adaptive and Coherent Decoding for Diffusion Language Models [64.92045568376705]
コヒーレントコンテキストデコーディング(Coherent Contextual Decoding, CCD)は、2つのコアイノベーションに基づいて構築された新しい推論フレームワークである。
CCDは、歴史的文脈を活用してシーケンスコヒーレンスを高める軌道修正機構を採用している。
拡散ステップに基づく厳密なアロケーションの代わりに,各ステップのアンマスク予算を動的に調整する適応型サンプリング戦略を導入する。
論文 参考訳(メタデータ) (2025-11-26T09:49:48Z) - Transparent Early ICU Mortality Prediction with Clinical Transformer and Per-Case Modality Attribution [42.85462513661566]
ICU滞在後48時間から, 生理的時系列測定と非構造的臨床記録とを融合した, 軽量で透明なマルチモーダルアンサンブルを提案する。
ロジスティック回帰モデルは、バイタル用双方向LSTMとノート用微調整された臨床ModernBERT変換器の2つのモード固有モデルからの予測を組み合わせる。
MIMIC-IIIベンチマークでは、遅延融合アンサンブルは、よく校正された予測を維持しながら、最高の単一モデルに対する差別を改善する。
論文 参考訳(メタデータ) (2025-11-19T20:11:49Z) - Efficient Thought Space Exploration through Strategic Intervention [54.35208611253168]
本稿では,この知見を2つの相乗的コンポーネントを通して操作するHint-Practice Reasoning(HPR)フレームワークを提案する。
フレームワークの中核となる革新は、動的に介入点を識別する分散不整合低減(DIR)である。
算術的および常識的推論ベンチマークによる実験は、HPRの最先端の効率-精度トレードオフを実証している。
論文 参考訳(メタデータ) (2025-11-13T07:26:01Z) - Confidence-Aware Routing for Large Language Model Reliability Enhancement: A Multi-Signal Approach to Pre-Generation Hallucination Mitigation [0.0]
大規模言語モデルは幻覚に悩まされ、可視だが事実的に誤った内容を生成する。
現在の緩和戦略は、計算コストが高く、信頼性の低いコンテンツ生成を防げない、ポストジェネレーション補正に重点を置いている。
本稿では,予測された信頼性に基づいて,モデルの不確実性を積極的に評価し,クエリをリダイレクトする信頼度対応ルーティングシステムを提案する。
論文 参考訳(メタデータ) (2025-09-23T18:34:20Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - HER2 Expression Prediction with Flexible Multi-Modal Inputs via Dynamic Bidirectional Reconstruction [25.739068829471297]
本稿では,単一モードあるいは二重モードの入力を柔軟にサポートする適応的バイモーダル予測フレームワークを提案する。
設計はH&Eのみの精度を71.44%から94.25%に劇的に改善し、完全なデュアルモダリティ入力では95.09%、単一モダリティ条件では90.28%の信頼性を維持している。
論文 参考訳(メタデータ) (2025-04-12T11:24:06Z) - CADRef: Robust Out-of-Distribution Detection via Class-Aware Decoupled Relative Feature Leveraging [5.356623181327855]
CARef(Class-Aware Relative Feature-based Method)とCADRef(Class-Aware Decoupled Relative Feature-based Method)を提案する。
両手法は, 最先端手法と比較してOOD検出の有効性とロバスト性を示した。
論文 参考訳(メタデータ) (2025-03-01T03:23:10Z) - Provable Guarantees for Generative Behavior Cloning: Bridging Low-Level
Stability and High-Level Behavior [51.60683890503293]
生成モデルを用いた複雑な専門家による実演の行動クローニングに関する理論的枠組みを提案する。
任意の専門的軌跡の時間ごとのステップ分布に一致するトラジェクトリを生成することができることを示す。
論文 参考訳(メタデータ) (2023-07-27T04:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。