論文の概要: SurgAtt-Tracker: Online Surgical Attention Tracking via Temporal Proposal Reranking and Motion-Aware Refinement
- arxiv url: http://arxiv.org/abs/2602.20636v1
- Date: Tue, 24 Feb 2026 07:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.649948
- Title: SurgAtt-Tracker: Online Surgical Attention Tracking via Temporal Proposal Reranking and Motion-Aware Refinement
- Title(参考訳): SurgAtt-Tracker: 一時的提案によるオンライン手術注意追跡とモーションアウェアリファインメント
- Authors: Rulin Zhou, Guankun Wang, An Wang, Yujie Ma, Lixin Ouyang, Bolin Cui, Junyan Li, Chaowei Zhu, Mingyang Li, Ming Chen, Xiaopin Zhong, Peng Lu, Jiankun Wang, Xianming Liu, Hongliang Ren,
- Abstract要約: SurgAtt-Trackerは外科的注意をしっかり追跡する総合的なフレームワークである。
複数の外科的データセットの実験は、SurgAtt-Trackerが一貫して最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 45.37105164372227
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and stable field-of-view (FoV) guidance is critical for safe and efficient minimally invasive surgery, yet existing approaches often conflate visual attention estimation with downstream camera control or rely on direct object-centric assumptions. In this work, we formulate surgical attention tracking as a spatio-temporal learning problem and model surgeon focus as a dense attention heatmap, enabling continuous and interpretable frame-wise FoV guidance. We propose SurgAtt-Tracker, a holistic framework that robustly tracks surgical attention by exploiting temporal coherence through proposal-level reranking and motion-aware refinement, rather than direct regression. To support systematic training and evaluation, we introduce SurgAtt-1.16M, a large-scale benchmark with a clinically grounded annotation protocol that enables comprehensive heatmap-based attention analysis across procedures and institutions. Extensive experiments on multiple surgical datasets demonstrate that SurgAtt-Tracker consistently achieves state-of-the-art performance and strong robustness under occlusion, multi-instrument interference, and cross-domain settings. Beyond attention tracking, our approach provides a frame-wise FoV guidance signal that can directly support downstream robotic FoV planning and automatic camera control.
- Abstract(参考訳): FoV(FoV)ガイダンスは、安全で効率的な侵襲的な手術には不可欠であるが、既存のアプローチでは、ダウンストリームカメラ制御による視覚的注意の推定や、直接的な対象中心の仮定に依存していることが多い。
本研究では,時空間学習問題として外科的注意追跡を定式化し,重度注意熱マップとしてモデル外科医の焦点を定式化し,連続的かつ解釈可能なフレームワイドFoV誘導を可能にする。
SurgAtt-Trackerは, 直接回帰ではなく, 時間的コヒーレンスを利用して, 時間的コヒーレンスを利用して, 外科的注意をしっかりと追跡するフレームワークである。
SurgAtt-1.16Mは,組織的なトレーニングと評価を支援するために,臨床基盤のアノテーションプロトコルを備えた大規模ベンチマークである。
複数の外科的データセットに対する大規模な実験により、SurgAtt-Trackerは、閉塞、多施設干渉、クロスドメイン設定の下で、常に最先端のパフォーマンスと強靭性を達成している。
注意トラッキング以外にも、下流ロボットのFoV計画と自動カメラ制御を直接サポートするフレームワイドのFoV誘導信号を提供する。
関連論文リスト
- Strategy-Supervised Autonomous Laparoscopic Camera Control via Event-Driven Graph Mining [15.995867664955348]
本稿では,ハイレベルな視覚言語推論と低レベルなクローズドループ制御を併用したストラテジグラウンドフレームワークを提案する。
オフラインで生の外科的ビデオは、カメラ関連の時間的イベントに解析され、属性付きイベントグラフとして構造化される。
オンラインでは、微調整されたビジョン・ランゲージ・モデル(VLM)がライブ腹腔鏡像を処理し、支配的な戦略と離散的な画像ベースのモーションコマンドを予測する。
論文 参考訳(メタデータ) (2026-02-24T02:56:39Z) - Detecting Object Tracking Failure via Sequential Hypothesis Testing [80.7891291021747]
ビデオにおけるリアルタイムのオンラインオブジェクト追跡は、コンピュータビジョンにおける中核的なタスクである。
本稿では,物体追跡を逐次的仮説テストとして解釈することを提案する。
本研究では,地中追跡情報と内部追跡情報の両方を活用することにより,教師なしと教師なしの両方の変種を提案する。
論文 参考訳(メタデータ) (2026-02-13T14:57:15Z) - AR Surgical Navigation with Surface Tracing: Comparing In-Situ Visualization with Tool-Tracking Guidance for Neurosurgical Applications [0.0]
本研究では,AR誘導を利用して解剖学的目標を登録し,リアルタイムな計器ナビゲーションを行う新しい手法を提案する。
新規な表面追跡法により標的位置を患者に登録し、リアルタイム赤外線ツールトラッキングを用いてカテーテル配置を支援する。
論文 参考訳(メタデータ) (2025-08-14T11:46:30Z) - Taming Modern Point Tracking for Speckle Tracking Echocardiography via Impartial Motion [0.686108371431346]
本研究は, 超音波検査における最先端点追跡法の可能性について検討し, 心エコー検査に焦点をあてる。
実際のBモード超音波ビデオにおいて心臓の周期を通しての運動を解析することにより、方向運動バイアスが既存のトレーニング戦略に影響を与えていることを同定する。
偏見を低減し, 心臓運動による一般化とロバスト性の向上を図った。
論文 参考訳(メタデータ) (2025-07-14T10:18:26Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - Open-World Drone Active Tracking with Goal-Centered Rewards [62.21394499788672]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATは,世界初となるエア・ツー・グラウンド・トラッキング・ベンチマークである。
また,複雑なシナリオにおけるドローン追跡目標の性能向上を目的としたGC-VATを提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - Tracking Everything in Robotic-Assisted Surgery [39.62251870446397]
そこで我々は,手術シナリオに対するベンチマーク追跡のための注釈付き手術追跡データセットを提案する。
我々は,このデータセット上で最先端(SOTA)のTAPベースのアルゴリズムを評価し,その限界を明らかにする。
本稿では,新たなトラッキング手法であるSurgMotionを提案し,その課題の解決とトラッキング性能の向上を図る。
論文 参考訳(メタデータ) (2024-09-29T23:06:57Z) - Self-Supervised Learning for Interventional Image Analytics: Towards Robust Device Trackers [6.262161803642583]
我々は,1600万以上の干渉X線フレームからなる非常に大きなデータコホートから手続き的特徴を学習するための新しい手法を提案する。
本手法は,フレームベース再構成を利用してフレーム間時間対応を微妙に学習するマスク付き画像モデリング技術に基づいている。
実験の結果,提案手法は参照解に対する最大追従誤差を66.31%削減できることがわかった。
論文 参考訳(メタデータ) (2024-05-02T10:18:22Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - AiATrack: Attention in Attention for Transformer Visual Tracking [89.94386868729332]
トランスフォーマートラッカーは近年,注目機構が重要な役割を担っている,目覚ましい進歩を遂げている。
我々は,すべての相関ベクトル間のコンセンサスを求めることにより,適切な相関性を高め,誤相関を抑制する注意モジュール(AiA)を提案する。
我々のAiAモジュールは自己認識ブロックとクロスアテンションブロックの両方に容易に適用でき、視覚追跡のための特徴集約と情報伝達を容易にする。
論文 参考訳(メタデータ) (2022-07-20T00:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。