論文の概要: ESAD: Endoscopic Surgeon Action Detection Dataset
- arxiv url: http://arxiv.org/abs/2006.07164v1
- Date: Fri, 12 Jun 2020 13:22:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:36:18.665235
- Title: ESAD: Endoscopic Surgeon Action Detection Dataset
- Title(参考訳): esad:内視鏡的手術行動検出データセット
- Authors: Vivek Singh Bawa, Gurkirt Singh, Francis KapingA, Inna
Skarga-Bandurova, Alice Leporini, Carmela Landolfo, Armando Stabile,
Francesco Setti, Riccardo Muradore, Elettra Oleari, Fabio Cuzzolin
- Abstract要約: 本研究の目的は,外科医の動作を意識させることで,手術支援ロボットをより安全にすることである。
実世界の内視鏡的ビデオにおいて,外科的行動検出のための挑戦的なデータセットを導入する。
- 参考スコア(独自算出の注目度): 10.531648619593572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we take aim towards increasing the effectiveness of surgical
assistant robots. We intended to make assistant robots safer by making them
aware about the actions of surgeon, so it can take appropriate assisting
actions. In other words, we aim to solve the problem of surgeon action
detection in endoscopic videos. To this, we introduce a challenging dataset for
surgeon action detection in real-world endoscopic videos. Action classes are
picked based on the feedback of surgeons and annotated by medical professional.
Given a video frame, we draw bounding box around surgical tool which is
performing action and label it with action label. Finally, we presenta
frame-level action detection baseline model based on recent advances in ob-ject
detection. Results on our new dataset show that our presented dataset provides
enough interesting challenges for future method and it can serveas strong
benchmark corresponding research in surgeon action detection in endoscopic
videos.
- Abstract(参考訳): 本研究は,手術補助ロボットの有効性を高めることを目的としている。
我々は,外科医の動作を意識させることで,補助ロボットをより安全にすることを目的としていた。
言い換えれば,内視鏡ビデオにおける外科医の行動検出の問題を解決することを目的としている。
そこで本研究では,実世界の内視鏡映像における外科医行動検出のための難易度データセットを提案する。
アクションクラスは外科医のフィードバックに基づいて選択され、医療専門家によって注釈付けされる。
ビデオフレームが与えられた場合、手術用ツールの周りにバウンディングボックスを描き、アクションラベルでラベル付けする。
最後に,最近のオブジェクト検出の進歩に基づくフレームレベル動作検出ベースラインモデルを提案する。
新しいデータセットの結果から,提案するデータセットは今後の方法に十分興味深い課題をもたらし,内視鏡的ビデオにおける外科医の行動検出における強力なベンチマーク対応研究に有用であることが示された。
関連論文リスト
- VISAGE: Video Synthesis using Action Graphs for Surgery [34.21344214645662]
腹腔鏡下手術における映像生成の新しい課題について紹介する。
提案手法であるVISAGEは,アクションシーングラフのパワーを利用して,腹腔鏡下手術のシーケンシャルな特徴を捉える。
腹腔鏡下手術における高忠実度ビデオ生成について検討した。
論文 参考訳(メタデータ) (2024-10-23T10:28:17Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Action Recognition in Video Recordings from Gynecologic Laparoscopy [4.002010889177872]
行動認識は腹腔鏡画像解析における多くの応用の前提条件である。
本研究では,CNN-RNNアーキテクチャと,カスタマイズしたトレーニング推論フレームワークの設計と評価を行う。
論文 参考訳(メタデータ) (2023-11-30T16:15:46Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Live image-based neurosurgical guidance and roadmap generation using
unsupervised embedding [53.992124594124896]
本稿では,注釈付き脳外科ビデオの大規模なデータセットを活用するライブ画像のみのガイダンスを提案する。
生成されたロードマップは、トレーニングセットの手術で取られた一般的な解剖学的パスをエンコードする。
166例の腹腔鏡下腺摘出術を施行し,本法の有効性について検討した。
論文 参考訳(メタデータ) (2023-03-31T12:52:24Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Adaptation of Surgical Activity Recognition Models Across Operating
Rooms [10.625208343893911]
手術室における手術活動認識モデルの一般化可能性について検討した。
外科的活動認識モデルの性能を向上させるための新しい領域適応法を提案する。
論文 参考訳(メタデータ) (2022-07-07T04:41:34Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - The SARAS Endoscopic Surgeon Action Detection (ESAD) dataset: Challenges
and methods [15.833413083110903]
本稿では,内視鏡下低侵襲手術における外科医の行動検出問題に取り組むための,最初の大規模データセットであるesadについて述べる。
このデータセットは、前立腺切除術中にキャプチャされた実際の内視鏡的ビデオフレーム上の21のアクションクラスに対するバウンディングボックスアノテーションを提供し、最近のMIDL 2020チャレンジのベースとして使用された。
論文 参考訳(メタデータ) (2021-04-07T15:11:51Z) - Using Computer Vision to Automate Hand Detection and Tracking of Surgeon
Movements in Videos of Open Surgery [8.095095522269352]
コンピュータビジョンの進歩を活かし,外科手術の映像解析に自動的アプローチを導入する。
オブジェクト検出のための最先端の畳み込みニューラルネットワークアーキテクチャを使用して、開手術ビデオの操作手を検出する。
本モデルの操作手の空間的検出は、既存の手検出データセットを用いて達成した検出を大幅に上回る。
論文 参考訳(メタデータ) (2020-12-13T03:10:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。