論文の概要: Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge
- arxiv url: http://arxiv.org/abs/2305.07152v2
- Date: Wed, 31 May 2023 17:17:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 02:31:50.485767
- Title: Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge
- Title(参考訳): 外科ツールの分類と局在:MICCAI 2022 SurgToolLoc Challengeの結果と方法
- Authors: Aneeq Zia, Kiran Bhattacharyya, Xi Liu, Max Berniker, Ziheng Wang,
Rogerio Nespolo, Satoshi Kondo, Satoshi Kasai, Kousuke Hirasawa, Bo Liu,
David Austin, Yiheng Wang, Michal Futrega, Jean-Francois Puget, Zhenqiang Li,
Yoichi Sato, Ryo Fujii, Ryo Hachiuma, Mana Masuda, Hideo Saito, An Wang,
Mengya Xu, Mobarakol Islam, Long Bai, Winnie Pang, Hongliang Ren, Chinedu
Nwoye, Luca Sestini, Nicolas Padoy, Maximilian Nielsen, Samuel Sch\"uttler,
Thilo Sentker, H\"umeyra Husseini, Ivo Baltruschat, R\"udiger Schmitz, Ren\'e
Werner, Aleksandr Matsun, Mugariya Farooq, Numan Saaed, Jose Renato Restom
Viera, Mohammad Yaqub, Neil Getty, Fangfang Xia, Zixuan Zhao, Xiaotian Duan,
Xing Yao, Ange Lou, Hao Yang, Jintong Han, Jack Noble, Jie Ying Wu, Tamer
Abdulbaki Alshirbaji, Nour Aldeen Jalal, Herag Arabian, Ning Ding, Knut
Moeller, Weiliang Chen, Quan He, Muhammad Bilal, Taofeek Akinosho, Adnan
Qayyum, Massimo Caputo, Hunaid Vohra, Michael Loizou, Anuoluwapo Ajayi, Ilhem
Berrou, Faatihah Niyi-Odumosu, Lena Maier-Hein, Danail Stoyanov, Stefanie
Speidel, Anthony Jarc
- Abstract要約: SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
- 参考スコア(独自算出の注目度): 69.91670788430162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to automatically detect and track surgical instruments in
endoscopic videos can enable transformational interventions. Assessing surgical
performance and efficiency, identifying skilled tool use and choreography, and
planning operational and logistical aspects of OR resources are just a few of
the applications that could benefit. Unfortunately, obtaining the annotations
needed to train machine learning models to identify and localize surgical tools
is a difficult task. Annotating bounding boxes frame-by-frame is tedious and
time-consuming, yet large amounts of data with a wide variety of surgical tools
and surgeries must be captured for robust training. Moreover, ongoing annotator
training is needed to stay up to date with surgical instrument innovation. In
robotic-assisted surgery, however, potentially informative data like timestamps
of instrument installation and removal can be programmatically harvested. The
ability to rely on tool installation data alone would significantly reduce the
workload to train robust tool-tracking models. With this motivation in mind we
invited the surgical data science community to participate in the challenge,
SurgToolLoc 2022. The goal was to leverage tool presence data as weak labels
for machine learning models trained to detect tools and localize them in video
frames with bounding boxes. We present the results of this challenge along with
many of the team's efforts. We conclude by discussing these results in the
broader context of machine learning and surgical data science. The training
data used for this challenge consisting of 24,695 video clips with tool
presence labels is also being released publicly and can be accessed at
https://console.cloud.google.com/storage/browser/isi-surgtoolloc-2022.
- Abstract(参考訳): 内視鏡ビデオで手術器具を自動的に検出し追跡する能力は、トランスフォーメーションの介入を可能にする。
手術のパフォーマンスと効率を評価し、熟練したツールの使用と振り付けを識別し、リソースの運用的およびロジスティックな側面を計画することは、メリットのあるアプリケーションのほんの一部に過ぎません。
残念ながら、手術ツールを特定しローカライズするために機械学習モデルのトレーニングに必要なアノテーションを取得するのは、難しい作業です。
フレーム単位の注釈付きボックスは面倒で時間を要するが、多種多様な手術器具や手術器具を備えた大量のデータは、堅牢な訓練のために取得する必要がある。
さらに, 手術器具の革新に追随するためには, 進行中のアノテータ訓練が必要である。
しかし、ロボット支援手術では、計器の設置や取り外しのタイムスタンプのような潜在的に有益なデータをプログラム的に収集することができる。
ツールのインストールデータのみに依存する能力は、堅牢なツール追跡モデルをトレーニングする作業負荷を大幅に削減する。
このモチベーションを念頭に、私たちはSurgToolLoc 2022というチャレンジに参加するために、外科データ科学コミュニティを招待しました。
目標は、ツールの存在データを、ツールを検出し、バウンディングボックスでビデオフレームにローカライズするようにトレーニングされた機械学習モデルの弱いラベルとして活用することだった。
この課題の結果を、多くのチームの努力とともに提示します。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
24,695本のビデオクリップとツールの存在ラベルから成るトレーニングデータも公開され、https://console.cloud.google.com/storage/browser/isi-surgtoolloc-2022.comでアクセスできる。
関連論文リスト
- SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Computer Vision for Increased Operative Efficiency via Identification of Instruments in the Neurosurgical Operating Room: A Proof-of-Concept Study [33.41411356073856]
コンピュータビジョン(英: Computer Vision, CV)は、機械が画像やビデオの解釈と理解を可能にする人工知能の分野である。
CVは手術器具を追跡するために手術室(OR)で補助を受ける可能性がある。
我々は神経外科手術室で手術器具を識別するためのCVアルゴリズムを構築した。
論文 参考訳(メタデータ) (2023-12-03T19:01:50Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Objective Surgical Skills Assessment and Tool Localization: Results from
the MICCAI 2021 SimSurgSkill Challenge [11.007322707874184]
SimSurgSkill 2021(MICCAI 2021でEndoVisのサブチャレンジとしてホスト)は、この取り組みの促進と促進を目的としている。
競技者は、機器のローカライズと外科的スキルの予測を任された。
この公開データセットとその結果をスプーンボードとして使用することで、将来の研究は、外科データ科学の進歩を伴う外科医のより効率的な訓練を可能にする可能性がある。
論文 参考訳(メタデータ) (2022-12-08T18:14:52Z) - Rethinking Surgical Instrument Segmentation: A Background Image Can Be
All You Need [18.830738606514736]
データ不足と不均衡はモデルの精度に大きな影響を与え、ディープラーニングベースの手術アプリケーションの設計と展開を制限してきた。
本稿では,ロボット手術によるデータ収集とアノテーションの複雑で高価なプロセスを排除する,1対多のデータ生成ソリューションを提案する。
経験的分析から,高コストなデータ収集とアノテーションがなければ,適切な手術器具のセグメンテーション性能が達成できることが示唆された。
論文 参考訳(メタデータ) (2022-06-23T16:22:56Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Synthetic and Real Inputs for Tool Segmentation in Robotic Surgery [10.562627972607892]
腹腔鏡画像と組み合わせたロボットキネマティックデータを用いてラベル付け問題を緩和できる可能性が示唆された。
腹腔鏡画像とシミュレーション画像の並列処理のための新しい深層学習モデルを提案する。
論文 参考訳(メタデータ) (2020-07-17T16:33:33Z) - Recurrent and Spiking Modeling of Sparse Surgical Kinematics [0.8458020117487898]
ますます多くの研究が、手術ロボットが捉えたビデオやキネマティックなデータを機械学習で分析している。
本研究では,同様のスキルレベルの外科医を予測するために,キネマティックデータのみを用いることの可能性を検討する。
本報告では, 運動特性のみに基づいて, シミュレーションエクササイズにおいて, ほぼ完全スコアの手術者を特定することが可能である。
論文 参考訳(メタデータ) (2020-05-12T15:41:45Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。