論文の概要: CholecTriplet2022: Show me a tool and tell me the triplet -- an
endoscopic vision challenge for surgical action triplet detection
- arxiv url: http://arxiv.org/abs/2302.06294v2
- Date: Fri, 14 Jul 2023 19:06:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 23:18:48.102282
- Title: CholecTriplet2022: Show me a tool and tell me the triplet -- an
endoscopic vision challenge for surgical action triplet detection
- Title(参考訳): cholectriplet2022: ツールを見せて,トリプレット -- 手術用トリプレット検出のための内視鏡的ビジョンチャレンジ
- Authors: Chinedu Innocent Nwoye, Tong Yu, Saurav Sharma, Aditya Murali, Deepak
Alapatt, Armine Vardazaryan, Kun Yuan, Jonas Hajek, Wolfgang Reiter, Amine
Yamlahi, Finn-Henri Smidt, Xiaoyang Zou, Guoyan Zheng, Bruno Oliveira, Helena
R. Torres, Satoshi Kondo, Satoshi Kasai, Felix Holm, Ege \"Ozsoy, Shuangchun
Gui, Han Li, Sista Raviteja, Rachana Sathish, Pranav Poudel, Binod Bhattarai,
Ziheng Wang, Guo Rui, Melanie Schellenberg, Jo\~ao L. Vila\c{c}a, Tobias
Czempiel, Zhenkun Wang, Debdoot Sheet, Shrawan Kumar Thapa, Max Berniker,
Patrick Godau, Pedro Morais, Sudarshan Regmi, Thuy Nuong Tran, Jaime Fonseca,
Jan-Hinrich N\"olke, Estev\~ao Lima, Eduard Vazquez, Lena Maier-Hein, Nassir
Navab, Pietro Mascagni, Barbara Seeliger, Cristians Gonzalez, Didier Mutter,
Nicolas Padoy
- Abstract要約: 本稿では,ColecTriplet2022の課題について述べる。
キーアクターとして、すべての可視的手術器具(または道具)の弱い調整されたバウンディングボックスローカライゼーションと、楽器、動詞、ターゲット>三重奏の形式での各ツール活性のモデリングを含む。
- 参考スコア(独自算出の注目度): 41.66666272822756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Formalizing surgical activities as triplets of the used instruments, actions
performed, and target anatomies is becoming a gold standard approach for
surgical activity modeling. The benefit is that this formalization helps to
obtain a more detailed understanding of tool-tissue interaction which can be
used to develop better Artificial Intelligence assistance for image-guided
surgery. Earlier efforts and the CholecTriplet challenge introduced in 2021
have put together techniques aimed at recognizing these triplets from surgical
footage. Estimating also the spatial locations of the triplets would offer a
more precise intraoperative context-aware decision support for
computer-assisted intervention. This paper presents the CholecTriplet2022
challenge, which extends surgical action triplet modeling from recognition to
detection. It includes weakly-supervised bounding box localization of every
visible surgical instrument (or tool), as the key actors, and the modeling of
each tool-activity in the form of <instrument, verb, target> triplet. The paper
describes a baseline method and 10 new deep learning algorithms presented at
the challenge to solve the task. It also provides thorough methodological
comparisons of the methods, an in-depth analysis of the obtained results across
multiple metrics, visual and procedural challenges; their significance, and
useful insights for future research directions and applications in surgery.
- Abstract(参考訳): 使用器具のトリプレットとしての外科活動の定式化、動作の実行、標的解剖は、外科活動モデリングの黄金の標準的なアプローチになりつつある。
この形式化は、画像誘導手術のためのより良い人工知能支援を開発するために使用できるツールとタスクの相互作用をより詳細に理解するのに役立つ。
初期の取り組みと2021年に導入されたコレクトリプルトチャレンジでは、手術映像からこれらのトリプレットを認識する技術が組み合わされた。
三脚の空間的位置を推定すると、コンピュータによる介入に対するより正確な術中コンテキスト認識による決定支援が提供される。
本稿では,手術動作の三重項モデリングを認識から検出まで拡張したcholectriplet2022 challengeを提案する。
キーアクターとして、あらゆる可視的手術器具(または道具)の弱い教師付きバウンディングボックスローカライゼーション、および<instrument, verb, target> trit という形で、各ツールアクティビティのモデリングを含む。
本論文では,課題解決のためのベースライン手法と10種類の新しいディープラーニングアルゴリズムについて述べる。
また、方法の徹底的な方法論的比較、複数のメトリクスにわたる結果の詳細な分析、視覚的および手続き的課題、その意義、手術における将来の研究方向や応用のための有用な洞察を提供する。
関連論文リスト
- SURGIVID: Annotation-Efficient Surgical Video Object Discovery [42.16556256395392]
手術シーンのセマンティックセグメンテーションのためのアノテーション効率のよいフレームワークを提案する。
我々は,画像に基づく自己監督型物体発見法を用いて,外科的ビデオにおいて最も有能なツールや解剖学的構造を同定する。
完全教師付きセグメンテーションモデルを用いて,36のアノテーションラベルで強化した無教師付きセットアップでは,同程度のローカライゼーション性能を示す。
論文 参考訳(メタデータ) (2024-09-12T07:12:20Z) - Monocular pose estimation of articulated surgical instruments in open surgery [0.873811641236639]
本研究は,開腹手術における手術器具の単眼6Dポーズ推定への新たなアプローチとして,物体調音,対称性,注釈付き実世界のデータの欠如といった課題に対処する。
提案手法は,(1)手術器具の3次元モデリングと調音リギングを用いた合成データ生成,(2)ポーズ推定とハイブリッドな幾何学的融合戦略を組み合わせたポーズ推定フレームワーク,(3)自動生成擬似ラベルを用いた実ビデオデータへのドメイン適応を用いた,合成データと実際の注釈データの両方を利用したトレーニング戦略,の3つの構成要素から構成される。
論文 参考訳(メタデータ) (2024-07-16T19:47:35Z) - Surgical Text-to-Image Generation [1.958913666074613]
We adapt text-to-image generative model for the surgery domain using the CholecT50 dataset。
我々は,3重項に基づくテキストプロンプトから,フォトリアリスティックかつ活動対応の手術画像を生成する手術画像nを開発した。
論文 参考訳(メタデータ) (2024-07-12T12:49:11Z) - Surgical Triplet Recognition via Diffusion Model [59.50938852117371]
外科的三重項認識は、次世代のコンテキスト対応手術室を実現するために必要不可欠なビルディングブロックである。
拡散モデルを用いた外科的三重項認識のための新しい生成フレームワークであるDifftを提案する。
CholecT45とColecT50データセットの実験は、手術用三重項認識のための新しい最先端性能を達成する上で、提案手法の優位性を示している。
論文 参考訳(メタデータ) (2024-06-19T04:43:41Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。