論文の概要: Robust Surgical Phase Recognition From Annotation Efficient Supervision
- arxiv url: http://arxiv.org/abs/2406.18481v1
- Date: Wed, 26 Jun 2024 16:47:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 12:50:18.659865
- Title: Robust Surgical Phase Recognition From Annotation Efficient Supervision
- Title(参考訳): アノテーションによるロバストな外科的位相認識
- Authors: Or Rubin, Shlomi Laufer,
- Abstract要約: 本稿では,欠落した位相アノテーションを効果的に扱える外科的位相認識のためのロバストな手法を提案する。
ビデオあたり3つの注釈付きフレームのみを用いて,MultiBypass140データセット上で85.1%の精度を実現する。
本研究は,外科的ワークフロー認識の進歩に寄与し,より効率的かつ信頼性の高い外科的位相認識システムの実現に寄与する。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical phase recognition is a key task in computer-assisted surgery, aiming to automatically identify and categorize the different phases within a surgical procedure. Despite substantial advancements, most current approaches rely on fully supervised training, requiring expensive and time-consuming frame-level annotations. Timestamp supervision has recently emerged as a promising alternative, significantly reducing annotation costs while maintaining competitive performance. However, models trained on timestamp annotations can be negatively impacted by missing phase annotations, leading to a potential drawback in real-world scenarios. In this work, we address this issue by proposing a robust method for surgical phase recognition that can handle missing phase annotations effectively. Furthermore, we introduce the SkipTag@K annotation approach to the surgical domain, enabling a flexible balance between annotation effort and model performance. Our method achieves competitive results on two challenging datasets, demonstrating its efficacy in handling missing phase annotations and its potential for reducing annotation costs. Specifically, we achieve an accuracy of 85.1\% on the MultiBypass140 dataset using only 3 annotated frames per video, showcasing the effectiveness of our method and the potential of the SkipTag@K setup. We perform extensive experiments to validate the robustness of our method and provide valuable insights to guide future research in surgical phase recognition. Our work contributes to the advancement of surgical workflow recognition and paves the way for more efficient and reliable surgical phase recognition systems.
- Abstract(参考訳): 外科的位相認識はコンピュータ支援手術において重要な課題であり、外科的手術において異なる位相を自動的に識別し分類することを目的としている。
大幅な進歩にもかかわらず、現在のアプローチのほとんどは完全に教師付きトレーニングに依存しており、高価で時間を要するフレームレベルのアノテーションを必要とする。
タイムスタンプの監督は、競争力のあるパフォーマンスを維持しながら、アノテーションのコストを大幅に削減する、有望な代替手段として最近登場した。
しかし、タイムスタンプアノテーションでトレーニングされたモデルは、フェーズアノテーションの欠如によって負の影響を受け、現実のシナリオに潜在的な欠点をもたらす可能性がある。
本研究では,欠損した位相アノテーションを効果的に扱える外科的位相認識のための堅牢な手法を提案し,この問題に対処する。
さらに、SkipTag@Kアノテーションアプローチを手術領域に導入し、アノテーションの取り組みとモデルパフォーマンスの柔軟なバランスを可能にする。
提案手法は,2つの挑戦的データセットに対する競合的な結果を実現し,欠落したフェーズアノテーションの処理の有効性と,アノテーションのコスト削減の可能性を示す。
具体的には、ビデオあたり3つの注釈付きフレームのみを用いて、MultiBypass140データセットの85.1\%の精度を実現し、この手法の有効性とSkipTag@K設定の可能性を示す。
本手法のロバスト性を検証するための広範囲な実験を行い,外科的位相認識における今後の研究の指針となる貴重な知見を提供する。
本研究は,外科的ワークフロー認識の進歩に寄与し,より効率的かつ信頼性の高い外科的位相認識システムの実現に寄与する。
関連論文リスト
- WeakSurg: Weakly supervised surgical instrument segmentation using temporal equivariance and semantic continuity [14.448593791011204]
本稿では,楽器の有無ラベルのみを付与した手術器具セグメンテーションを提案する。
手術ビデオの時間的特性を考慮し,2段階の弱教師付きセグメンテーションパラダイムを拡張した。
1つの胆嚢摘出手術ベンチマークと1つの実際のロボット左外側肝外科手術データセットを含む2つの手術ビデオデータセットで実験が検証されている。
論文 参考訳(メタデータ) (2024-03-14T16:39:11Z) - SuPRA: Surgical Phase Recognition and Anticipation for Intra-Operative
Planning [46.57714869178571]
本稿では,手術段階を同時に認識し,次の手術段階を予測する2つのアプローチを提案する。
外科的位相認識・予測法(SuPRA)は,過去と現在の情報を正確な術中位相認識に活用する。
論文 参考訳(メタデータ) (2024-03-10T12:46:33Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - Weakly Supervised Temporal Convolutional Networks for Fine-grained
Surgical Activity Recognition [10.080444283496487]
本稿では,段階認識学習の弱さとして,粗大でアノテートしやすい活動ラベル(フェーズ)を提案する。
我々は、弱い注釈付きビデオからエンドツーエンドにトレーニングされたResNet-50バックボーンを備えたシングルステージのテンポラル・コンボリューショナル・ネットワーク(SS-TCN)を採用している。
腹腔鏡下胃バイパス術40例と白内障手術50例を含むCATARACTSを併用した大規模ビデオデータセットにおいて,提案手法の有効性を広く評価し,その有効性を示した。
論文 参考訳(メタデータ) (2023-02-21T17:26:49Z) - One-Shot Medical Landmark Localization by Edge-Guided Transform and
Noisy Landmark Refinement [59.14062241534754]
医用ランドマークのワンショット化のための2段階のフレームワークを提案する。
ステージIでは,新たな損失関数の指導の下で,グローバルアライメントと局所変形のエンドツーエンドのカスケードを学習する。
ステージIIでは,信頼性の高い擬似ラベルを選択するための自己整合性や,半教師付き学習のための相互整合性について検討する。
論文 参考訳(メタデータ) (2022-07-31T15:42:28Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Simulation-to-Real domain adaptation with teacher-student learning for
endoscopic instrument segmentation [1.1047993346634768]
注釈付きシミュレーションデータとラベルのない実データから共同学習する教師学習手法を紹介します。
3つのデータセットの実証結果は、提案したフレームワークの有効性を浮き彫りにする。
論文 参考訳(メタデータ) (2021-03-02T09:30:28Z) - Confident Coreset for Active Learning in Medical Image Analysis [57.436224561482966]
本稿では,情報的サンプルを効果的に選択するための,不確実性と分散性を考慮した新しい能動的学習手法である信頼コアセットを提案する。
2つの医用画像解析タスクの比較実験により,本手法が他の活動的学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-05T13:46:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。