論文の概要: Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction
- arxiv url: http://arxiv.org/abs/2003.04772v1
- Date: Tue, 10 Mar 2020 14:28:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:04:08.971891
- Title: Multi-Task Recurrent Neural Network for Surgical Gesture Recognition and
Progress Prediction
- Title(参考訳): 手術用ジェスチャ認識と進捗予測のためのマルチタスクリカレントニューラルネットワーク
- Authors: Beatrice van Amsterdam, Matthew J. Clarkson, Danail Stoyanov
- Abstract要約: 本稿では,手術動作の同時認識のためのマルチタスクリカレントニューラルネットワークを提案する。
マルチタスクフレームワークでは,手作業によるラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
- 参考スコア(独自算出の注目度): 17.63619129438996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical gesture recognition is important for surgical data science and
computer-aided intervention. Even with robotic kinematic information,
automatically segmenting surgical steps presents numerous challenges because
surgical demonstrations are characterized by high variability in style,
duration and order of actions. In order to extract discriminative features from
the kinematic signals and boost recognition accuracy, we propose a multi-task
recurrent neural network for simultaneous recognition of surgical gestures and
estimation of a novel formulation of surgical task progress. To show the
effectiveness of the presented approach, we evaluate its application on the
JIGSAWS dataset, that is currently the only publicly available dataset for
surgical gesture recognition featuring robot kinematic data. We demonstrate
that recognition performance improves in multi-task frameworks with progress
estimation without any additional manual labelling and training.
- Abstract(参考訳): 手術用ジェスチャー認識は手術用データサイエンスおよびコンピュータ支援介入において重要である。
ロボティックキネマティックな情報であっても、手術手順を自動的に分割することは、手術のデモがスタイル、持続時間、行動の順序において高い変動性によって特徴づけられるため、多くの課題を生じさせる。
運動信号から識別的特徴を抽出し,認識精度を高めるために,手術動作の同時認識と手術進行の新たな定式化を行うマルチタスクリカレントニューラルネットワークを提案する。
提案手法の有効性を示すため,ロボットキネマティックデータを用いた外科的ジェスチャー認識用データセットとして現在唯一公開されているJIGSAWSデータセットについて,その適用性を評価する。
マルチタスクフレームワークでは,手動ラベリングやトレーニングを伴わずに,進捗推定による認識性能が向上することが実証された。
関連論文リスト
- Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - ST(OR)2: Spatio-Temporal Object Level Reasoning for Activity Recognition
in the Operating Room [6.132617753806978]
ORにおける外科的活動認識のための新しい試料効率およびオブジェクトベースアプローチを提案する。
本手法は, 臨床医と手術器具の幾何学的配置に着目し, ORにおける重要な物体相互作用のダイナミクスを活用する。
論文 参考訳(メタデータ) (2023-12-19T15:33:57Z) - Hierarchical Semi-Supervised Learning Framework for Surgical Gesture
Segmentation and Recognition Based on Multi-Modality Data [2.8770761243361593]
多モードデータを用いた外科的ジェスチャー分割のための階層型半教師付き学習フレームワークを開発した。
トレーニング済みのResNet-18'バックボーンを備えたTransformerベースのネットワークを使用して,手術ビデオから視覚的特徴を抽出する。
提案手法は、Suturing, Needle Passing, Knot Tyingタスクを含む、公開されているJIGSデータベースのデータを用いて評価されている。
論文 参考訳(メタデータ) (2023-07-31T21:17:59Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Gesture Recognition in Robotic Surgery: a Review [16.322875532481326]
本稿では,ロボット手術におけるきめ細かいジェスチャーの自動認識技術について概説する。
研究分野は急速に拡大しており、記事の大半は過去4年間に掲載されている。
論文 参考訳(メタデータ) (2021-01-29T19:13:13Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Aggregating Long-Term Context for Learning Laparoscopic and
Robot-Assisted Surgical Workflows [40.48632897750319]
本稿では,タスク固有のネットワーク表現を利用した時間的ネットワーク構造を提案する。
腹腔鏡下胆嚢摘出術を施行した。
論文 参考訳(メタデータ) (2020-09-01T20:29:14Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z) - Towards Generalizable Surgical Activity Recognition Using Spatial
Temporal Graph Convolutional Networks [0.40611352512781856]
シーンの変動に頑健なモダリティを導入し、向きや相対的な空間関係などの部分情報を推測することができる。
提案したモダリティは,ビデオにおける外科的ツールの空間時間グラフ表現に基づいて,外科的活動認識を行う。
論文 参考訳(メタデータ) (2020-01-11T09:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。