論文の概要: Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action
Localization
- arxiv url: http://arxiv.org/abs/2104.14280v1
- Date: Thu, 29 Apr 2021 12:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 13:00:04.057986
- Title: Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action
Localization
- Title(参考訳): 時空間行動局在による白内障手術ビデオの関連性検出
- Authors: Negin Ghamsarian, Mario Taschwer, Doris Putzgruber-Adamitsch,
Stephanie Sarny, Klaus Schoeffmann
- Abstract要約: 白内障手術では、顕微鏡の助けを借りて手術を行います。
顕微鏡は最大2人程度でリアルタイム手術を観察できるため、記録されたビデオを用いて手術訓練の大部分を行う。
ビデオコンテンツでトレーニング手順を最適化するには、外科医は自動関連性検出アプローチが必要です。
本稿では,白内障映像における関連フェーズセグメントの検出と分類を行うための3モジュールフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.235239641693831
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In cataract surgery, the operation is performed with the help of a
microscope. Since the microscope enables watching real-time surgery by up to
two people only, a major part of surgical training is conducted using the
recorded videos. To optimize the training procedure with the video content, the
surgeons require an automatic relevance detection approach. In addition to
relevance-based retrieval, these results can be further used for skill
assessment and irregularity detection in cataract surgery videos. In this
paper, a three-module framework is proposed to detect and classify the relevant
phase segments in cataract videos. Taking advantage of an idle frame
recognition network, the video is divided into idle and action segments. To
boost the performance in relevance detection, the cornea where the relevant
surgical actions are conducted is detected in all frames using Mask R-CNN. The
spatiotemporally localized segments containing higher-resolution information
about the pupil texture and actions, and complementary temporal information
from the same phase are fed into the relevance detection module. This module
consists of four parallel recurrent CNNs being responsible to detect four
relevant phases that have been defined with medical experts. The results will
then be integrated to classify the action phases as irrelevant or one of four
relevant phases. Experimental results reveal that the proposed approach
outperforms static CNNs and different configurations of feature-based and
end-to-end recurrent networks.
- Abstract(参考訳): 白内障手術では、顕微鏡の助けを借りて手術を行う。
顕微鏡は最大2人程度でリアルタイム手術を観察できるため、記録されたビデオを用いて手術訓練の大部分を行う。
ビデオコンテンツによる訓練手順を最適化するために,外科医は自動的関連性検出アプローチが必要となる。
関連度に基づく検索に加えて, 白内障手術ビデオにおけるスキル評価や不規則性検出にも利用できる。
本稿では,白内障ビデオの位相セグメントの検出と分類を行う3つのモジュールフレームワークを提案する。
アイドルフレーム認識ネットワークを利用して、ビデオはアイドルとアクションセグメントに分割される。
関連検出の性能を高めるため、Mask R-CNNを用いて、関連する外科的動作を行う角膜を全フレームで検出する。
瞳孔テクスチャ及び行動に関する高分解能情報と同一位相からの相補的時間情報とを含む時空間的局所化セグメントを関連検出モジュールに入力する。
このモジュールは4つの並列リカレントCNNから構成され、医療専門家によって定義された4つの関連するフェーズを検出する。
結果が統合され、アクションフェーズは無関係または関連する4つのフェーズのうちの1つとして分類される。
実験の結果,提案手法は静的CNNと特徴ベースとエンドツーエンドのリカレントネットワークの異なる構成よりも優れていることがわかった。
関連論文リスト
- Thoracic Surgery Video Analysis for Surgical Phase Recognition [0.08706730566331035]
我々は,11種類の位相からなる胸部手術データセットを用いて,フレームベースおよびビデオクリッピングに基づく位相認識の解析と評価を行った。
ImageNet ViTによる52.31%に比べて,Masked Video Distillation(MVD)は72.9%の精度で優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-13T14:47:57Z) - Real-time guidewire tracking and segmentation in intraoperative x-ray [52.51797358201872]
リアルタイムガイドワイヤ分割と追跡のための2段階のディープラーニングフレームワークを提案する。
第1段階では、ヨロフ5検出器が元のX線画像と合成画像を使って訓練され、ターゲットのガイドワイヤのバウンディングボックスを出力する。
第2段階では、検出された各バウンディングボックスにガイドワイヤを分割するために、新規で効率的なネットワークが提案されている。
論文 参考訳(メタデータ) (2024-04-12T20:39:19Z) - Cataract-1K: Cataract Surgery Dataset for Scene Segmentation, Phase
Recognition, and Irregularity Detection [5.47960852753243]
本稿では,コンピュータ化された手術ワークフロー解析を構築するための多様な要件に対処する,白内障手術用ビデオデータセットについて紹介する。
我々は、最先端のニューラルネットワークアーキテクチャの性能をベンチマークすることで、アノテーションの品質を検証する。
データセットとアノテーションは、論文の受理時に公開される。
論文 参考訳(メタデータ) (2023-12-11T10:53:05Z) - Event Recognition in Laparoscopic Gynecology Videos with Hybrid
Transformers [4.371909393924804]
腹腔鏡下ビデオにおいて,関連するイベント認識に適したデータセットを提案する。
本データセットは,術中大きな課題と術後合併症に関連する重要な事象に対するアノテーションを含む。
腹腔鏡下手術ビデオにおける4つの特定の事象を認識するために,ハイブリッドトランスフォーマーアーキテクチャと,カスタマイズしたトレーニング推論フレームワークを併用して評価を行った。
論文 参考訳(メタデータ) (2023-12-01T13:57:29Z) - Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - Phase-Specific Augmented Reality Guidance for Microscopic Cataract
Surgery Using Long-Short Spatiotemporal Aggregation Transformer [14.568834378003707]
乳化白内障手術(英: Phaemulsification cataract surgery, PCS)は、外科顕微鏡を用いた外科手術である。
PCS誘導システムは、手術用顕微鏡映像から貴重な情報を抽出し、熟練度を高める。
既存のPCSガイダンスシステムでは、位相特異なガイダンスに悩まされ、冗長な視覚情報に繋がる。
本稿では,認識された手術段階に対応するAR情報を提供する,新しい位相特異的拡張現実(AR)誘導システムを提案する。
論文 参考訳(メタデータ) (2023-09-11T02:56:56Z) - GLSFormer : Gated - Long, Short Sequence Transformer for Step
Recognition in Surgical Videos [57.93194315839009]
本稿では,シーケンスレベルのパッチから時間的特徴を直接学習するための視覚変換器に基づくアプローチを提案する。
本研究では,白内障手術用ビデオデータセットである白内障-101とD99に対するアプローチを広範に評価し,各種の最先端手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2023-07-20T17:57:04Z) - LoViT: Long Video Transformer for Surgical Phase Recognition [59.06812739441785]
短時間・長期の時間情報を融合する2段階のLong Video Transformer(LoViT)を提案する。
このアプローチは、Colec80とAutoLaparoデータセットの最先端メソッドを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-15T20:06:14Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。