論文の概要: Cataract-1K: Cataract Surgery Dataset for Scene Segmentation, Phase
Recognition, and Irregularity Detection
- arxiv url: http://arxiv.org/abs/2312.06295v1
- Date: Mon, 11 Dec 2023 10:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 15:52:31.322736
- Title: Cataract-1K: Cataract Surgery Dataset for Scene Segmentation, Phase
Recognition, and Irregularity Detection
- Title(参考訳): Cataract-1K:Scene Segmentation, Phase Recognition, and Irregularity Detectionのための白内障手術データセット
- Authors: Negin Ghamsarian, Yosuf El-Shabrawi, Sahar Nasirihaghighi, Doris
Putzgruber-Adamitsch, Martin Zinkernagel, Sebastian Wolf, Klaus Schoeffmann,
Raphael Sznitman
- Abstract要約: 本稿では,コンピュータ化された手術ワークフロー解析を構築するための多様な要件に対処する,白内障手術用ビデオデータセットについて紹介する。
我々は、最先端のニューラルネットワークアーキテクチャの性能をベンチマークすることで、アノテーションの品質を検証する。
データセットとアノテーションは、論文の受理時に公開される。
- 参考スコア(独自算出の注目度): 5.47960852753243
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the landscape of computer-assisted interventions and
post-operative surgical video analysis has been dramatically reshaped by
deep-learning techniques, resulting in significant advancements in surgeons'
skills, operation room management, and overall surgical outcomes. However, the
progression of deep-learning-powered surgical technologies is profoundly
reliant on large-scale datasets and annotations. Particularly, surgical scene
understanding and phase recognition stand as pivotal pillars within the realm
of computer-assisted surgery and post-operative assessment of cataract surgery
videos. In this context, we present the largest cataract surgery video dataset
that addresses diverse requisites for constructing computerized surgical
workflow analysis and detecting post-operative irregularities in cataract
surgery. We validate the quality of annotations by benchmarking the performance
of several state-of-the-art neural network architectures for phase recognition
and surgical scene segmentation. Besides, we initiate the research on domain
adaptation for instrument segmentation in cataract surgery by evaluating
cross-domain instrument segmentation performance in cataract surgery videos.
The dataset and annotations will be publicly available upon acceptance of the
paper.
- Abstract(参考訳): 近年, 深層学習技術により, コンピュータ支援による介入や術後の手術映像分析の状況が劇的に変化し, 外科医のスキル, 手術室管理, 総合的な手術成績が著しく進歩している。
しかし、ディープラーニングを利用した外科技術の進歩は、大規模なデータセットやアノテーションに大きく依存している。
特に,手術場面の理解と位相認識は,コンピュータ支援手術領域における重要な柱であり,白内障手術ビデオの術後評価である。
そこで本研究では,白内障手術における手術ワークフロー解析と術後の異常検出のための多様な要件に対処する最大の白内障手術ビデオデータセットを提案する。
位相認識と手術シーンセグメンテーションのための最先端ニューラルネットワークアーキテクチャの性能をベンチマークすることにより,アノテーションの品質を検証する。
また,白内障手術ビデオにおけるクロスドメイン楽器セグメンテーションの性能を評価することにより,白内障手術における楽器セグメンテーションの領域適応に関する研究を開始する。
データセットとアノテーションは、論文が受け入れられれば公開される予定だ。
関連論文リスト
- OphCLIP: Hierarchical Retrieval-Augmented Learning for Ophthalmic Surgical Video-Language Pretraining [55.15365161143354]
OphCLIPは、眼科手術ワークフロー理解のための階層的検索強化視覚言語事前学習フレームワークである。
OphCLIPは、短いビデオクリップと詳細な物語記述、構造化タイトルによるフルビデオの調整によって、細粒度と長期の視覚表現の両方を学習する。
我々のOphCLIPは、探索されていない大規模なサイレント手術ビデオを活用するために、検索強化事前訓練フレームワークも設計している。
論文 参考訳(メタデータ) (2024-11-23T02:53:08Z) - SURGIVID: Annotation-Efficient Surgical Video Object Discovery [42.16556256395392]
手術シーンのセマンティックセグメンテーションのためのアノテーション効率のよいフレームワークを提案する。
我々は,画像に基づく自己監督型物体発見法を用いて,外科的ビデオにおいて最も有能なツールや解剖学的構造を同定する。
完全教師付きセグメンテーションモデルを用いて,36のアノテーションラベルで強化した無教師付きセットアップでは,同程度のローカライゼーション性能を示す。
論文 参考訳(メタデータ) (2024-09-12T07:12:20Z) - Thoracic Surgery Video Analysis for Surgical Phase Recognition [0.08706730566331035]
我々は,11種類の位相からなる胸部手術データセットを用いて,フレームベースおよびビデオクリッピングに基づく位相認識の解析と評価を行った。
ImageNet ViTによる52.31%に比べて,Masked Video Distillation(MVD)は72.9%の精度で優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-13T14:47:57Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Surgical Temporal Action-aware Network with Sequence Regularization for
Phase Recognition [28.52533700429284]
本稿では,STAR-Netと命名されたシークエンス正規化を施した手術時行動認識ネットワークを提案する。
MS-STAモジュールは、視覚的特徴と2Dネットワークを犠牲にして、手術行動の空間的および時間的知識を統合する。
我々のSTAR-Net with MS-STA and DSR can exploit of visual features of surgery action with effective regularization, which to the excellent performance of surgery phase recognition。
論文 参考訳(メタデータ) (2023-11-21T13:43:16Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Relevance Detection in Cataract Surgery Videos by Spatio-Temporal Action
Localization [7.235239641693831]
白内障手術では、顕微鏡の助けを借りて手術を行います。
顕微鏡は最大2人程度でリアルタイム手術を観察できるため、記録されたビデオを用いて手術訓練の大部分を行う。
ビデオコンテンツでトレーニング手順を最適化するには、外科医は自動関連性検出アプローチが必要です。
本稿では,白内障映像における関連フェーズセグメントの検出と分類を行うための3モジュールフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T12:01:08Z) - OperA: Attention-Regularized Transformers for Surgical Phase Recognition [46.72897518687539]
長い映像列から外科的位相を正確に予測する変圧器モデルoperaを紹介する。
operaは腹腔鏡下胆嚢摘出ビデオの2つのデータセットで徹底的に評価されており,術中時間的改善のアプローチを上回っている。
論文 参考訳(メタデータ) (2021-03-05T18:59:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。