論文の概要: The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods
- arxiv url: http://arxiv.org/abs/2104.03178v1
- Date: Wed, 7 Apr 2021 15:11:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:46:29.994397
- Title: The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods
- Title(参考訳): SARAS内視鏡サージオンアクション検出(ESAD)データセットの課題と方法
- Authors: Vivek Singh Bawa, Gurkirt Singh, Francis KapingA, Inna
Skarga-Bandurova, Elettra Oleari, Alice Leporini, Carmela Landolfo, Pengfei
Zhao, Xi Xiang, Gongning Luo, Kuanquan Wang, Liangzhi Li, Bowen Wang, Shang
Zhao, Li Li, Armando Stabile, Francesco Setti, Riccardo Muradore, Fabio
Cuzzolin
- Abstract要約: 本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
- 参考スコア(独自算出の注目度): 15.833413083110903
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For an autonomous robotic system, monitoring surgeon actions and assisting
the main surgeon during a procedure can be very challenging. The challenges
come from the peculiar structure of the surgical scene, the greater similarity
in appearance of actions performed via tools in a cavity compared to, say,
human actions in unconstrained environments, as well as from the motion of the
endoscopic camera. This paper presents ESAD, the first large-scale dataset
designed to tackle the problem of surgeon action detection in endoscopic
minimally invasive surgery. ESAD aims at contributing to increase the
effectiveness and reliability of surgical assistant robots by realistically
testing their awareness of the actions performed by a surgeon. The dataset
provides bounding box annotation for 21 action classes on real endoscopic video
frames captured during prostatectomy, and was used as the basis of a recent
MIDL 2020 challenge. We also present an analysis of the dataset conducted using
the baseline model which was released as part of the challenge, and a
description of the top performing models submitted to the challenge together
with the results they obtained. This study provides significant insight into
what approaches can be effective and can be extended further. We believe that
ESAD will serve in the future as a useful benchmark for all researchers active
in surgeon action detection and assistive robotics at large.
- Abstract(参考訳): 自律型ロボットシステムでは、手術の動作を監視し、手術中の主手術を支援することが非常に難しい。
課題は、手術シーンの特異な構造、例えば制約のない環境における人間の行動や内視鏡カメラの動作よりも、空洞内の道具を通して行われる行動の外観の類似性が大きいことにある。
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
ESADは、外科医が行う行動に対する認識を現実的にテストすることで、手術補助ロボットの有効性と信頼性を高めることを目的としている。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジの基礎として使用された。
また、課題の一部としてリリースされたベースラインモデルを用いて実施したデータセットの分析と、得られた結果とともに課題に提出された上位実行モデルについて述べる。
本研究は,どのようなアプローチが効果的で,さらに拡張可能なのか,重要な知見を提供する。
ESADは将来的に、外科医のアクション検出および支援ロボティクス全般において、すべての研究者にとって有用なベンチマークとなると信じている。
関連論文リスト
- VISAGE: Video Synthesis using Action Graphs for Surgery [34.21344214645662]
腹腔鏡下手術における映像生成の新しい課題について紹介する。
提案手法であるVISAGEは,アクションシーングラフのパワーを利用して,腹腔鏡下手術のシーケンシャルな特徴を捉える。
腹腔鏡下手術における高忠実度ビデオ生成について検討した。
論文 参考訳(メタデータ) (2024-10-23T10:28:17Z) - PitVis-2023 Challenge: Workflow Recognition in videos of Endoscopic Pituitary Surgery [46.2901962659261]
The Pituitary Vision (VisVis) 2023 Challengeは、内視鏡下垂体手術のビデオで、コミュニティに認識のステップと計測を課している。
これは、より小さな作業スペースのため、他の最小侵襲の手術と比較しても、ユニークなタスクである。
6つの国にまたがる9チームから18のチームがあり、さまざまなディープラーニングモデルを使用していた。
論文 参考訳(メタデータ) (2024-09-02T11:38:06Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Surgical Visual Domain Adaptation: Results from the MICCAI 2020
SurgVisDom Challenge [9.986124942784969]
この研究は、データプライバシの懸念を克服するために、手術における視覚領域適応の可能性を探究する。
特に,外科手術のバーチャルリアリティ(VR)シミュレーションのビデオを用いて,臨床ライクな環境下でのタスク認識アルゴリズムの開発を提案する。
課題参加者によって開発された視覚的ドメイン適応を解決するためのさまざまなアプローチのパフォーマンスを紹介します。
論文 参考訳(メタデータ) (2021-02-26T18:45:28Z) - ESAD: Endoscopic Surgeon Action Detection Dataset [10.531648619593572]
本研究の目的は,外科医の動作を意識させることで,手術支援ロボットをより安全にすることである。
実世界の内視鏡的ビデオにおいて,外科的行動検出のための挑戦的なデータセットを導入する。
論文 参考訳(メタデータ) (2020-06-12T13:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。