論文の概要: Video-based assessment of intraoperative surgical skill
- arxiv url: http://arxiv.org/abs/2205.06416v1
- Date: Fri, 13 May 2022 01:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 13:14:25.577980
- Title: Video-based assessment of intraoperative surgical skill
- Title(参考訳): 術中手術スキルの映像による評価
- Authors: Sanchit Hira, Digvijay Singh, Tae Soo Kim, Shobhit Gupta, Gregory
Hager, Shameema Sikder, S. Swaroop Vedula
- Abstract要約: 本稿では,RGBビデオを用いて直接スキル評価を行う2つのディープラーニング手法を提案し,検証する。
第1の方法は,楽器の先端をキーポイントとして予測し,時間的畳み込みニューラルネットワークを用いて外科的スキルを学ぶことである。
第2の方法では,フレームワイド・エンコーダ(2次元畳み込みニューラルネットワーク)と時間モデル(リカレントニューラルネットワーク)を含む外科的スキル評価のための新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 7.79874072121082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: The objective of this investigation is to provide a comprehensive
analysis of state-of-the-art methods for video-based assessment of surgical
skill in the operating room. Methods: Using a data set of 99 videos of
capsulorhexis, a critical step in cataract surgery, we evaluate feature based
methods previously developed for surgical skill assessment mostly under
benchtop settings. In addition, we present and validate two deep learning
methods that directly assess skill using RGB videos. In the first method, we
predict instrument tips as keypoints, and learn surgical skill using temporal
convolutional neural networks. In the second method, we propose a novel
architecture for surgical skill assessment that includes a frame-wise encoder
(2D convolutional neural network) followed by a temporal model (recurrent
neural network), both of which are augmented by visual attention mechanisms. We
report the area under the receiver operating characteristic curve, sensitivity,
specificity, and predictive values with each method through 5-fold
cross-validation. Results: For the task of binary skill classification (expert
vs. novice), deep neural network based methods exhibit higher AUC than the
classical spatiotemporal interest point based methods. The neural network
approach using attention mechanisms also showed high sensitivity and
specificity. Conclusion: Deep learning methods are necessary for video-based
assessment of surgical skill in the operating room. Our findings of internal
validity of a network using attention mechanisms to assess skill directly using
RGB videos should be evaluated for external validity in other data sets.
- Abstract(参考訳): 目的: 本研究の目的は, 手術室における手術技能の映像ベース評価における最先端手法の総合的分析を提供することである。
方法: 白内障手術における重要なステップであるcapsulorhexisの99ビデオのデータセットを用いて,前述した手術スキル評価のための特徴量ベース手法をベンチトップ設定で評価した。
さらに,RGBビデオを用いて直接スキル評価を行う2つの深層学習手法を提案する。
まず,楽器の先端をキーポイントとして予測し,時間的畳み込みニューラルネットワークを用いて外科的スキルを学ぶ。
第2の方法は,フレームワイズエンコーダ(2次元畳み込みニューラルネットワーク)と時間モデル(リカレントニューラルネットワーク)を併用した手術スキル評価のための新しいアーキテクチャを提案する。
5倍のクロスバリデーションにより,各手法における特性曲線,感度,特異性,予測値の操作領域を報告する。
結果:二分的スキル分類(専門対初心者)の課題に対して,ディープニューラルネットワークに基づく手法は従来の時空間的関心点に基づく手法よりも高いAUCを示す。
注意機構を用いたニューラルネットワークアプローチも高い感度と特異性を示した。
結論: 深層学習法は手術室における手術技術の評価に必要である。
注意機構を用いてRGBビデオから直接スキルを評価するネットワークの内部妥当性を,他のデータセットの外部妥当性として評価すべきである。
関連論文リスト
- Cognitive-Motor Integration in Assessing Bimanual Motor Skills [0.0]
本研究では、ディープニューラルネットワーク(DNN)を活用して、認知的意思決定と運動実行の両方を分析し統合する新しいアプローチを提案する。
腹腔鏡下手術の基礎教育における腹腔鏡下手術技術の評価により,本手法を検証した。
論文 参考訳(メタデータ) (2024-04-16T20:20:23Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Video-based Surgical Skills Assessment using Long term Tool Tracking [0.3324986723090368]
手術症例ビデオフィードから外科的スキルを自動評価するための動きに基づくアプローチを提案する。
提案されたパイプラインは、まず外科的ツールを確実に追跡し、運動軌跡を作成する。
提案手法と最先端追跡手法を用いて,トランスフォーマーに基づくスキルアセスメントと従来の機械学習手法を比較した。
論文 参考訳(メタデータ) (2022-07-05T18:15:28Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - End-to-End Blind Quality Assessment for Laparoscopic Videos using Neural
Networks [9.481148895837812]
本稿では、歪み分類と品質予測のためのニューラルネットワークに基づくアプローチを提案する。
アーキテクチャ全体(ResNetモデルとFCNNモデル)をトレーニングするために,トランスファーラーニングとエンドツーエンドラーニングアプローチについて検討した。
新しい腹腔鏡画像品質データベースを用いて実験を行い,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-02-09T15:29:02Z) - A Deep Learning Approach to Predicting Collateral Flow in Stroke
Patients Using Radiomic Features from Perfusion Images [58.17507437526425]
側方循環は、血流を妥協した領域に酸素を供給する特殊な無酸素流路から生じる。
実際のグレーティングは主に、取得した画像の手動検査によって行われる。
MR灌流データから抽出した放射線学的特徴に基づいて,脳卒中患者の側方血流低下を予測するための深層学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T18:58:40Z) - Deep Neural Networks for the Assessment of Surgical Skills: A Systematic
Review [6.815366422701539]
530の論文をレビューし,25の論文を体系的レビューに選定した。
深層ニューラルネットワークは,キネマティックデータとビデオデータの両方を用いて自動的,客観的な手術スキル評価を行うための強力なツールである,と結論づけた。
この分野は、手術訓練生や専門家の人口統計や、キネマティックスやビデオ以外のマルチモーダルデータを代表する、大きくて一般公開された注釈付きデータセットの恩恵を受けるだろう。
論文 参考訳(メタデータ) (2021-03-03T10:08:37Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Detection and Localization of Robotic Tools in Robot-Assisted Surgery
Videos Using Deep Neural Networks for Region Proposal and Detection [30.042965489804356]
本稿では,RASビデオ理解におけるツール検出と局所化の解法を提案する。
本稿では,マルチモーダル畳み込みニューラルネットワークを用いたRASビデオにおけるツールの高速検出とローカライズのためのアーキテクチャを提案する。
平均精度91%, 平均時間0.1秒で測定した結果, 従来の医用画像撮影法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-07-29T10:59:15Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。