論文の概要: When Tracking Fails: Analyzing Failure Modes of SAM2 for Point-Based Tracking in Surgical Videos
- arxiv url: http://arxiv.org/abs/2510.02100v1
- Date: Thu, 02 Oct 2025 15:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.177913
- Title: When Tracking Fails: Analyzing Failure Modes of SAM2 for Point-Based Tracking in Surgical Videos
- Title(参考訳): 手術ビデオにおけるポイントベーストラッキングにおけるSAM2の障害モードの分析
- Authors: Woowon Jang, Jiwon Im, Juseung Choi, Niki Rashidian, Wesley De Neve, Utku Ozbulak,
- Abstract要約: 腹腔鏡下胆嚢摘出術ビデオにおけるポイントベーストラッキングの障害モードを系統的に解析した。
以上の結果から, ポイントベーストラッキングは外科的ツールと競合するが, 解剖学的対象には不適合であることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.43981305860983705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video object segmentation (VOS) models such as SAM2 offer promising zero-shot tracking capabilities for surgical videos using minimal user input. Among the available input types, point-based tracking offers an efficient and low-cost alternative, yet its reliability and failure cases in complex surgical environments are not well understood. In this work, we systematically analyze the failure modes of point-based tracking in laparoscopic cholecystectomy videos. Focusing on three surgical targets, the gallbladder, grasper, and L-hook electrocautery, we compare the performance of point-based tracking with segmentation mask initialization. Our results show that point-based tracking is competitive for surgical tools but consistently underperforms for anatomical targets, where tissue similarity and ambiguous boundaries lead to failure. Through qualitative analysis, we reveal key factors influencing tracking outcomes and provide several actionable recommendations for selecting and placing tracking points to improve performance in surgical video analysis.
- Abstract(参考訳): SAM2のようなビデオオブジェクトセグメンテーション(VOS)モデルは、最小限のユーザ入力を使用して、手術ビデオに対して有望なゼロショットトラッキング機能を提供する。
利用可能な入力タイプの中で、ポイントベースのトラッキングは効率的で低コストな代替手段を提供するが、複雑な手術環境における信頼性と障害ケースはよく理解されていない。
本研究では,腹腔鏡下胆嚢摘出術ビデオにおけるポイントベーストラッキングの障害モードを系統的に解析する。
胆嚢,グリーパー,Lフックの3つの手術目標に着目し,ポイントベーストラッキングとセグメンテーションマスクの初期化を比較した。
以上の結果から, 手術器具ではポイントベースの追跡が適しているが, 組織類似性や曖昧な境界が障害を引き起こす解剖学的標的では, 常に不適合であることが明らかとなった。
質的分析により,追跡結果に影響を及ぼす重要な要因を明らかにし,手術映像解析におけるパフォーマンス向上のために,追跡点の選択と配置に有効ないくつかの推奨事項を提示する。
関連論文リスト
- HiLWS: A Human-in-the-Loop Weak Supervision Framework for Curating Clinical and Home Video Data for Neurological Assessment [3.920493604448087]
ハンドモーター・タスク・ビデオのキュレーションとアノテートを行うためのHLWSについて述べる。
HiLWSは、まず専門家が提供するアノテーションを確率ラベルに集約するために弱い監督を施す新しいカスケードアプローチを採用している。
完全なパイプラインには、品質フィルタリング、最適化されたポーズ推定、タスク固有のセグメント抽出が含まれる。
論文 参考訳(メタデータ) (2025-09-09T22:30:25Z) - ReSurgSAM2: Referring Segment Anything in Surgical Video via Credible Long-term Tracking [15.83425997240828]
ReSurgSAM2は2段階の外科的セグメンテーションフレームワークである。
クロスモーダルな時空間マンバを用いて正確な検出とセグメンテーション結果を生成する。
信頼性と多様なメモリバンクを維持し、一貫した長期追跡を保証する、多様性駆動型メモリ機構を備えている。
論文 参考訳(メタデータ) (2025-05-13T13:56:10Z) - One Patient's Annotation is Another One's Initialization: Towards Zero-Shot Surgical Video Segmentation with Cross-Patient Initialization [1.0536099636804035]
ビデオオブジェクトセグメンテーションは、リアルタイムな外科的ビデオセグメンテーションに適した新興技術である。
しかし、追跡されたオブジェクトを選択するために手動で介入する必要があるため、その採用は限られている。
本研究では,他の患者からの注釈付きフレームを追跡フレームとして使用することで,この課題を革新的な解決法で解決する。
この非従来的アプローチは、患者の追跡フレームの使用実績と一致したり、超えたりすることさえできる。
論文 参考訳(メタデータ) (2025-03-04T03:11:03Z) - Tracking Everything in Robotic-Assisted Surgery [39.62251870446397]
そこで我々は,手術シナリオに対するベンチマーク追跡のための注釈付き手術追跡データセットを提案する。
我々は,このデータセット上で最先端(SOTA)のTAPベースのアルゴリズムを評価し,その限界を明らかにする。
本稿では,新たなトラッキング手法であるSurgMotionを提案し,その課題の解決とトラッキング性能の向上を図る。
論文 参考訳(メタデータ) (2024-09-29T23:06:57Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - RTracker: Recoverable Tracking via PN Tree Structured Memory [71.05904715104411]
本稿では,木構造メモリを用いてトラッカーと検出器を動的に関連付け,自己回復を可能にするRTrackerを提案する。
具体的には,正負と負のターゲットサンプルを時系列に保存し,維持する正負のツリー構造メモリを提案する。
我々の中核となる考え方は、正と負の目標カテゴリーの支持サンプルを用いて、目標損失の信頼性評価のための相対的距離に基づく基準を確立することである。
論文 参考訳(メタデータ) (2024-03-28T08:54:40Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。