論文の概要: SurgPLAN++: Universal Surgical Phase Localization Network for Online and Offline Inference
- arxiv url: http://arxiv.org/abs/2409.12467v1
- Date: Thu, 19 Sep 2024 05:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 14:41:29.320825
- Title: SurgPLAN++: Universal Surgical Phase Localization Network for Online and Offline Inference
- Title(参考訳): SurgPLAN++: オンラインおよびオフライン推論のためのユニバーサルな外科的フェーズローカライゼーションネットワーク
- Authors: Zhen Chen, Xingjian Luo, Jinlin Wu, Long Bai, Zhen Lei, Hongliang Ren, Sebastien Ourselin, Hongbin Liu,
- Abstract要約: 本稿では,時間的検出の原理を用いて,SurgPLAN++という汎用的な外科的位相ローカライゼーションネットワークを提案する。
オンライン分析のために、SurgPLAN++は、ストリーミングビデオをミラーリング、センター複製、ダウンサンプリングを通じて擬似完全ビデオに拡張するデータ拡張戦略を採用している。
我々のSurgPLAN++は、オンラインモードとオフラインモードの両方で顕著なパフォーマンスを実現しています。
- 参考スコア(独自算出の注目度): 18.842969478045877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical phase recognition is critical for assisting surgeons in understanding surgical videos. Existing studies focused more on online surgical phase recognition, by leveraging preceding frames to predict the current frame. Despite great progress, they formulated the task as a series of frame-wise classification, which resulted in a lack of global context of the entire procedure and incoherent predictions. Moreover, besides online analysis, accurate offline surgical phase recognition is also in significant clinical need for retrospective analysis, and existing online algorithms do not fully analyze the entire video, thereby limiting accuracy in offline analysis. To overcome these challenges and enhance both online and offline inference capabilities, we propose a universal Surgical Phase Localization Network, named SurgPLAN++, with the principle of temporal detection. To ensure a global understanding of the surgical procedure, we devise a phase localization strategy for SurgPLAN++ to predict phase segments across the entire video through phase proposals. For online analysis, to generate high-quality phase proposals, SurgPLAN++ incorporates a data augmentation strategy to extend the streaming video into a pseudo-complete video through mirroring, center-duplication, and down-sampling. For offline analysis, SurgPLAN++ capitalizes on its global phase prediction framework to continuously refine preceding predictions during each online inference step, thereby significantly improving the accuracy of phase recognition. We perform extensive experiments to validate the effectiveness, and our SurgPLAN++ achieves remarkable performance in both online and offline modes, which outperforms state-of-the-art methods. The source code is available at https://github.com/lxj22/SurgPLAN-Plus.
- Abstract(参考訳): 外科的位相認識は、外科医が手術ビデオを理解するのを助けるために重要である。
既存の研究では、以前のフレームを活用して現在のフレームを予測することで、オンラインの外科的位相認識をより重視している。
大きな進歩にもかかわらず、彼らはタスクを一連のフレームワイドな分類として定式化し、その結果、手順全体のグローバルなコンテキストが欠如し、一貫性のない予測がなされた。
さらに, オンライン解析の他に, 正確なオフライン外科的位相認識は, 振り返り解析にとって重要な臨床要件であり, 既存のオンラインアルゴリズムでは全映像を十分に解析できないため, オフライン解析の精度が制限される。
これらの課題を克服し、オンラインとオフラインの両方の推論機能を強化するために、時間的検出の原理を取り入れた、SurgPLAN++と呼ばれる普遍的な外科的位相局所化ネットワークを提案する。
外科手術のグローバルな理解を確保するため,SurgPLAN++のフェーズローカライズ戦略を考案し,フェーズプロポーザルを通じてビデオ全体のフェーズセグメントを予測する。
オンライン分析では、高品質なフェーズ提案を生成するために、SurgPLAN++は、ストリーミングビデオをミラーリング、センター複製、ダウンサンプリングを通じて擬似完全ビデオに拡張するデータ拡張戦略を採用している。
オフライン解析のために、SurgPLAN++はグローバルフェーズ予測フレームワークを利用して、オンライン推論の各ステップで先行予測を継続的に洗練し、フェーズ認識の精度を大幅に向上させる。
我々のSurgPLAN++は、オンラインモードとオフラインモードの両方で顕著なパフォーマンスを実現し、最先端の手法よりも優れています。
ソースコードはhttps://github.com/lxj22/SurgPLAN-Plusで入手できる。
関連論文リスト
- Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Friends Across Time: Multi-Scale Action Segmentation Transformer for
Surgical Phase Recognition [2.10407185597278]
オフライン手術相認識のためのMS-AST(Multi-Scale Action Causal Transformer)とオンライン手術相認識のためのMS-ASCT(Multi-Scale Action Causal Transformer)を提案する。
オンラインおよびオフラインの外科的位相認識のためのColec80データセットでは,95.26%,96.15%の精度が得られる。
論文 参考訳(メタデータ) (2024-01-22T01:34:03Z) - SurgPLAN: Surgical Phase Localization Network for Phase Recognition [14.857715124466594]
そこで我々は,より正確で安定した手術相認識を支援するために,SurgPLANと呼ばれる手術相ロカライズネットワークを提案する。
まず、フレームサンプリング率の異なる2つのブランチで複数スケールの空間的特徴と時間的特徴をキャプチャする視覚バックボーンとして、Praamid SlowFast (PSF) アーキテクチャを考案した。
論文 参考訳(メタデータ) (2023-11-16T15:39:01Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - Boundary Guided Semantic Learning for Real-time COVID-19 Lung Infection
Segmentation System [69.40329819373954]
新型コロナウイルス(COVID-19)は、世界中の医療システムに悪影響を及ぼし続けている。
現段階では、新型コロナウイルスの診断と治療には、CT画像から肺感染症領域を自動的に分離することが不可欠である。
本稿では,境界案内型セマンティックラーニングネットワーク(BSNet)を提案する。
論文 参考訳(メタデータ) (2022-09-07T05:01:38Z) - ARST: Auto-Regressive Surgical Transformer for Phase Recognition from
Laparoscopic Videos [2.973286445527318]
自然言語処理における逐次データモデリングのために提案されたTransformerは,外科的位相認識に成功している。
本研究では, 腹腔鏡下画像からのオンライン手術位相認識のために, ARSTと呼ばれる自動回帰手術変換器が最初に提案されている。
論文 参考訳(メタデータ) (2022-09-02T16:05:39Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Trans-SVNet: Accurate Phase Recognition from Surgical Videos via Hybrid
Embedding Aggregation Transformer [57.18185972461453]
本稿では,手術ワークフロー解析トランスフォーマーを初めて導入し,正確な位相認識のための時間的特徴と時間的特徴の無視された補完効果を再考する。
我々のフレームワークは軽量であり、高い推論速度を達成するためにハイブリッド埋め込みを並列に処理します。
論文 参考訳(メタデータ) (2021-03-17T15:12:55Z) - TeCNO: Surgical Phase Recognition with Multi-Stage Temporal
Convolutional Networks [43.95869213955351]
外科的位相認識のための階層的予測補正を行う多段階時間畳み込みネットワーク(MS-TCN)を提案する。
本手法は腹腔鏡下胆嚢摘出術ビデオの2つのデータセットに対して,追加の外科的ツール情報を用いずに徹底的に評価した。
論文 参考訳(メタデータ) (2020-03-24T10:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。