論文の概要: CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition
- arxiv url: http://arxiv.org/abs/2204.04746v1
- Date: Sun, 10 Apr 2022 18:51:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 16:27:32.576308
- Title: CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition
- Title(参考訳): CholecTriplet2021: 外科的三重項認識のためのベンチマーク課題
- Authors: Chinedu Innocent Nwoye, Deepak Alapatt, Tong Yu, Armine Vardazaryan,
Fangfang Xia, Zixuan Zhao, Tong Xia, Fucang Jia, Yuxuan Yang, Hao Wang,
Derong Yu, Guoyan Zheng, Xiaotian Duan, Neil Getty, Ricardo Sanchez-Matilla,
Maria Robu, Li Zhang, Huabin Chen, Jiacheng Wang, Liansheng Wang, Bokai
Zhang, Beerend Gerats, Sista Raviteja, Rachana Sathish, Rong Tao, Satoshi
Kondo, Winnie Pang, Hongliang Ren, Julian Ronald Abbing, Mohammad Hasan
Sarhan, Sebastian Bodenstedt, Nithya Bhasker, Bruno Oliveira, Helena R.
Torres, Li Ling, Finn Gaida, Tobias Czempiel, Jo\~ao L. Vila\c{c}a, Pedro
Morais, Jaime Fonseca, Ruby Mae Egging, Inge Nicole Wijma, Chen Qian, Guibin
Bian, Zhen Li, Velmurugan Balasubramanian, Debdoot Sheet, Imanol Luengo,
Yuanbo Zhu, Shuai Ding, Jakob-Anton Aschenbrenner, Nicolas Elini van der Kar,
Mengya Xu, Mobarakol Islam, Lalithkumar Seenivasan, Alexander Jenke, Danail
Stoyanov, Didier Mutter, Pietro Mascagni, Barbara Seeliger, Cristians
Gonzalez, Nicolas Padoy
- Abstract要約: 腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
- 参考スコア(独自算出の注目度): 66.51610049869393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Context-aware decision support in the operating room can foster surgical
safety and efficiency by leveraging real-time feedback from surgical workflow
analysis. Most existing works recognize surgical activities at a coarse-grained
level, such as phases, steps or events, leaving out fine-grained interaction
details about the surgical activity; yet those are needed for more helpful AI
assistance in the operating room. Recognizing surgical actions as triplets of
<instrument, verb, target> combination delivers comprehensive details about the
activities taking place in surgical videos. This paper presents
CholecTriplet2021: an endoscopic vision challenge organized at MICCAI 2021 for
the recognition of surgical action triplets in laparoscopic videos. The
challenge granted private access to the large-scale CholecT50 dataset, which is
annotated with action triplet information. In this paper, we present the
challenge setup and assessment of the state-of-the-art deep learning methods
proposed by the participants during the challenge. A total of 4 baseline
methods from the challenge organizers and 19 new deep learning algorithms by
competing teams are presented to recognize surgical action triplets directly
from surgical videos, achieving mean average precision (mAP) ranging from 4.2%
to 38.1%. This study also analyzes the significance of the results obtained by
the presented approaches, performs a thorough methodological comparison between
them, in-depth result analysis, and proposes a novel ensemble method for
enhanced recognition. Our analysis shows that surgical workflow analysis is not
yet solved, and also highlights interesting directions for future research on
fine-grained surgical activity recognition which is of utmost importance for
the development of AI in surgery.
- Abstract(参考訳): 手術室における文脈対応意思決定支援は、手術ワークフロー分析からのリアルタイムフィードバックを活用して、手術の安全性と効率性を高めることができる。
既存の作品の多くは、フェーズ、ステップ、イベントなどの粗いレベルの手術活動を認識しており、手術活動に関する詳細なインタラクションは残っていないが、手術室でより有用なai支援のために必要である。
Instrument, verb, target>コンビネーションのトリプレットとして外科的行動を認識することは,手術ビデオにおける活動に関する包括的詳細を提供する。
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で組織された内視鏡的視力障害であるColecTriplet2021を提案する。
このチャレンジは、アクショントリプル情報で注釈付けされた大規模なColecT50データセットへのプライベートアクセスを許可した。
本稿では,この課題において,参加者が提案する最先端のディープラーニング手法のセットアップと評価について述べる。
チャレンジオーガナイザの合計4つのベースライン手法と、競技チームによる19の新たなディープラーニングアルゴリズムが提示され、手術ビデオから直接手術アクショントリプレットを認識し、平均平均精度(mAP)は4.2%から38.1%である。
本研究は,提案手法により得られた結果の意義を解析し,それら間の方法論的比較を行い,詳細な結果分析を行い,新しいアンサンブル法を提案する。
外科的ワークフロー分析はまだ未解決であり,手術におけるAIの発展に最も重要となる微細な外科的活動認識の今後の研究の方向性が注目されている。
関連論文リスト
- OSSAR: Towards Open-Set Surgical Activity Recognition in Robot-assisted
Surgery [13.843251369739908]
本稿では,OSSAR(Open-Set Surgery Activity Recognition)フレームワークについて紹介する。
提案手法は超球面逆点戦略を利用して特徴空間における未知クラスと未知クラスとの区別を強化する。
我々の主張をサポートするために、公開JIGSAWSデータセットを利用したオープンセットの外科的活動ベンチマークを構築した。
論文 参考訳(メタデータ) (2024-02-10T16:23:12Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - CholecTriplet2022: Show me a tool and tell me the triplet -- an
endoscopic vision challenge for surgical action triplet detection [41.66666272822756]
本稿では,ColecTriplet2022の課題について述べる。
キーアクターとして、すべての可視的手術器具(または道具)の弱い調整されたバウンディングボックスローカライゼーションと、楽器、動詞、ターゲット>三重奏の形式での各ツール活性のモデリングを含む。
論文 参考訳(メタデータ) (2023-02-13T11:53:14Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - Comparative Validation of Machine Learning Algorithms for Surgical
Workflow and Skill Analysis with the HeiChole Benchmark [36.37186411201134]
外科的ワークフローとスキル分析は、次世代の認知外科補助システムにおいて重要な技術である。
マルチセンター環境における位相認識アルゴリズムの一般化可能性について検討した。
論文 参考訳(メタデータ) (2021-09-30T09:34:13Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。