論文の概要: Surgical Gesture Recognition Based on Bidirectional Multi-Layer
Independently RNN with Explainable Spatial Feature Extraction
- arxiv url: http://arxiv.org/abs/2105.00460v1
- Date: Sun, 2 May 2021 12:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:49:04.371283
- Title: Surgical Gesture Recognition Based on Bidirectional Multi-Layer
Independently RNN with Explainable Spatial Feature Extraction
- Title(参考訳): 説明可能な空間特徴抽出を用いた双方向多層RNNによる手術ジェスチャー認識
- Authors: Dandan Zhang, Ruoxi Wang, Benny Lo
- Abstract要約: 本研究では, 説明可能な特徴抽出プロセスを用いて, 効果的な外科的ジェスチャー認識手法の開発を目指す。
本稿では,双方向マルチ層独立RNN(BML-indRNN)モデルを提案する。
dcnnのブラックボックス効果を解消するために、勾配重み付けクラスアクティベーションマッピング(grad-cam)を用いる。
その結果,提案手法に基づく縫合作業の精度は87.13%であり,最先端のアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 10.469989981471254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimally invasive surgery mainly consists of a series of sub-tasks, which
can be decomposed into basic gestures or contexts. As a prerequisite of
autonomic operation, surgical gesture recognition can assist motion planning
and decision-making, and build up context-aware knowledge to improve the
surgical robot control quality. In this work, we aim to develop an effective
surgical gesture recognition approach with an explainable feature extraction
process. A Bidirectional Multi-Layer independently RNN (BML-indRNN) model is
proposed in this paper, while spatial feature extraction is implemented via
fine-tuning of a Deep Convolutional Neural Network(DCNN) model constructed
based on the VGG architecture. To eliminate the black-box effects of DCNN,
Gradient-weighted Class Activation Mapping (Grad-CAM) is employed. It can
provide explainable results by showing the regions of the surgical images that
have a strong relationship with the surgical gesture classification results.
The proposed method was evaluated based on the suturing task with data obtained
from the public available JIGSAWS database. Comparative studies were conducted
to verify the proposed framework. Results indicated that the testing accuracy
for the suturing task based on our proposed method is 87.13%, which outperforms
most of the state-of-the-art algorithms.
- Abstract(参考訳): 最小侵襲手術は主に一連のサブタスクで構成され、基本的なジェスチャーやコンテキストに分解することができる。
自律神経手術の前提条件として、外科的ジェスチャー認識は、動作計画と意思決定を支援し、手術ロボットの制御品質を改善するためにコンテキスト認識知識を構築する。
本研究は,説明可能な特徴抽出プロセスを用いた効果的な手術用ジェスチャー認識手法の開発を目的としている。
本稿では,VGGアーキテクチャに基づいて構築されたディープ畳み込みニューラルネットワーク(DCNN)モデルの微調整により空間特徴抽出を行うとともに,双方向多層RNN(BML-indRNN)モデルを提案する。
dcnnのブラックボックス効果を解消するために、勾配重み付けクラスアクティベーションマッピング(grad-cam)を用いる。
外科的ジェスチャー分類結果と強い関係を持つ外科画像の領域を示すことで、説明可能な結果を提供することができる。
提案手法は, JIGSAWSデータベースから得られたデータを用いて, 縫合タスクに基づいて評価した。
提案手法を検証するために比較研究を行った。
その結果,提案手法に基づく縫合作業の精度は87.13%であり,最先端のアルゴリズムよりも優れていた。
関連論文リスト
- Intraoperative Registration by Cross-Modal Inverse Neural Rendering [61.687068931599846]
クロスモーダル逆ニューラルレンダリングによる神経外科手術における術中3D/2Dレジストレーションのための新しいアプローチを提案する。
本手法では,暗黙の神経表現を2つの構成要素に分離し,術前および術中における解剖学的構造について検討した。
臨床症例の振り返りデータを用いて本法の有効性を検証し,現在の登録基準を満たした状態での最先端の検査成績を示した。
論文 参考訳(メタデータ) (2024-09-18T13:40:59Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Hierarchical Semi-Supervised Learning Framework for Surgical Gesture
Segmentation and Recognition Based on Multi-Modality Data [2.8770761243361593]
多モードデータを用いた外科的ジェスチャー分割のための階層型半教師付き学習フレームワークを開発した。
トレーニング済みのResNet-18'バックボーンを備えたTransformerベースのネットワークを使用して,手術ビデオから視覚的特徴を抽出する。
提案手法は、Suturing, Needle Passing, Knot Tyingタスクを含む、公開されているJIGSデータベースのデータを用いて評価されている。
論文 参考訳(メタデータ) (2023-07-31T21:17:59Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Automatic Liver Segmentation from CT Images Using Deep Learning
Algorithms: A Comparative Study [0.0]
本稿では,Liverセグメンテーションのための最も効率的なDLアーキテクチャを提案する。
完全自動肝セグメンテーションのための最も効率的かつ正確なDLアーキテクチャを明らかにすることを目的としている。
その結果,DLアルゴリズムはDICOM画像からの臓器分割を高精度に自動化できることが判明した。
論文 参考訳(メタデータ) (2021-01-25T10:05:46Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Unsupervised Region-based Anomaly Detection in Brain MRI with
Adversarial Image Inpainting [4.019851137611981]
本稿では,T1強調MRIのための完全自動非教師付き印字型脳腫瘍分割システムを提案する。
まず、Deep Convolutional Neural Network(DCNN)をトレーニングし、行方不明の健常な脳の領域を再構築する。
提案システムでは, 種々の腫瘍と抽象腫瘍を分離し, 平均偏差Diceスコアが0.176, 0.771, 標準偏差Diceスコアが得られた。
論文 参考訳(メタデータ) (2020-10-05T12:13:44Z) - Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction [17.63619129438996]
本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
論文 参考訳(メタデータ) (2020-03-10T14:28:02Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。