論文の概要: Gesture Recognition in Robotic Surgery: a Review
- arxiv url: http://arxiv.org/abs/2102.00027v1
- Date: Fri, 29 Jan 2021 19:13:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 15:59:26.061099
- Title: Gesture Recognition in Robotic Surgery: a Review
- Title(参考訳): ロボット手術におけるジェスチャ認識
- Authors: Beatrice van Amsterdam, Matthew J. Clarkson, Danail Stoyanov
- Abstract要約: 本稿では,ロボット手術におけるきめ細かいジェスチャーの自動認識技術について概説する。
研究分野は急速に拡大しており、記事の大半は過去4年間に掲載されている。
- 参考スコア(独自算出の注目度): 16.322875532481326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: Surgical activity recognition is a fundamental step in
computer-assisted interventions. This paper reviews the state-of-the-art in
methods for automatic recognition of fine-grained gestures in robotic surgery
focusing on recent data-driven approaches and outlines the open questions and
future research directions. Methods: An article search was performed on 5
bibliographic databases with the following search terms: robotic,
robot-assisted, JIGSAWS, surgery, surgical, gesture, fine-grained, surgeme,
action, trajectory, segmentation, recognition, parsing. Selected articles were
classified based on the level of supervision required for training and divided
into different groups representing major frameworks for time series analysis
and data modelling. Results: A total of 52 articles were reviewed. The research
field is showing rapid expansion, with the majority of articles published in
the last 4 years. Deep-learning-based temporal models with discriminative
feature extraction and multi-modal data integration have demonstrated promising
results on small surgical datasets. Currently, unsupervised methods perform
significantly less well than the supervised approaches. Conclusion: The
development of large and diverse open-source datasets of annotated
demonstrations is essential for development and validation of robust solutions
for surgical gesture recognition. While new strategies for discriminative
feature extraction and knowledge transfer, or unsupervised and semi-supervised
approaches, can mitigate the need for data and labels, they have not yet been
demonstrated to achieve comparable performance. Important future research
directions include detection and forecast of gesture-specific errors and
anomalies. Significance: This paper is a comprehensive and structured analysis
of surgical gesture recognition methods aiming to summarize the status of this
rapidly evolving field.
- Abstract(参考訳): 目的: 手術活動認識はコンピュータ支援介入の基本的なステップである。
本稿では,最近のデータ駆動アプローチに着目したロボット手術における細粒度ジェスチャーの自動認識手法の現状と今後の展望について概説する。
方法: ロボット, ロボット支援, JIGSAWS, 外科, 外科, ジェスチャー, きめ細かな, サーム, アクション, 軌跡, セグメンテーション, 認識, パーシングの5つの文献データベースで検索を行った。
選抜された記事は、トレーニングに必要な監督レベルに基づいて分類され、時系列分析とデータモデリングのための主要なフレームワークを表すグループに分けられた。
結果:合計52記事がレビューされました。
研究分野は急速に拡大しており、記事の大半は過去4年間に掲載されている。
識別的特徴抽出とマルチモーダルデータ統合を用いた深層学習に基づく時間モデルにより,小型手術データセットにおいて有望な結果が得られた。
現在、教師なし手法は教師なし手法よりも大幅に性能が低い。
結論: 注釈付きデモンストレーションの大規模かつ多様なオープンソースデータセットの開発は, 外科的ジェスチャー認識のための堅牢なソリューションの開発と検証に不可欠である。
識別的特徴抽出と知識伝達のための新しい戦略、あるいは教師なし、半教師なしのアプローチは、データとラベルの必要性を軽減できるが、同等のパフォーマンスを達成するためにはまだ実証されていない。
今後の重要な研究方向は、ジェスチャー固有のエラーや異常の検出と予測である。
意義:本稿は,この急速に発展する分野の現状を要約した手術用ジェスチャー認識手法の包括的かつ構造化された分析である。
関連論文リスト
- SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Jumpstarting Surgical Computer Vision [2.7396997668655163]
我々は、多様な外科的データセットを柔軟に活用するために、自己教師付き学習を採用する。
腹腔鏡下胆嚢摘出術と腹腔鏡下子宮摘出術の位相認識と安全性の検討を行った。
事前トレーニングデータセットの構成は、さまざまな下流タスクに対するSSLメソッドの有効性に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2023-12-10T18:54:16Z) - Methods and datasets for segmentation of minimally invasive surgical
instruments in endoscopic images and videos: A review of the state of the art [0.0]
手法開発と評価に使用されるデータセットを特定し,特徴付ける。
この論文は、楽器に付着した種類のマーカーを使わずに、純粋に視覚的に機能する手法に焦点を当てている。
レビューされた文献の議論は、既存の欠点を浮き彫りにし、将来の発展の可能性を強調するものである。
論文 参考訳(メタデータ) (2023-04-25T17:38:41Z) - Nuclei & Glands Instance Segmentation in Histology Images: A Narrative
Review [0.5893124686141781]
組織像における核と腺のセグメンテーションは、計算病理のワークフローにおいて重要なステップである。
現代的なハードウェアの出現により、大規模で高品質な公開データセットが最近利用可能になり、組織化された大きな課題が自動化メソッドの急増に遭遇した。
この調査では,過去5年~2022年に公表された,原子核と腺のセグメンテーションに関するAIベースの手法を解説した126の論文を深く分析した。
論文 参考訳(メタデータ) (2022-08-26T06:52:15Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。