論文の概要: Deep Neural Networks for the Assessment of Surgical Skills: A Systematic
Review
- arxiv url: http://arxiv.org/abs/2103.05113v1
- Date: Wed, 3 Mar 2021 10:08:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:56:44.276493
- Title: Deep Neural Networks for the Assessment of Surgical Skills: A Systematic
Review
- Title(参考訳): 手術スキル評価のための深層ニューラルネットワーク--体系的考察
- Authors: Erim Yanik, Xavier Intes, Uwe Kruger, Pingkun Yan, David Miller, Brian
Van Voorst, Basiel Makled, Jack Norfleet, Suvranu De
- Abstract要約: 530の論文をレビューし,25の論文を体系的レビューに選定した。
深層ニューラルネットワークは,キネマティックデータとビデオデータの両方を用いて自動的,客観的な手術スキル評価を行うための強力なツールである,と結論づけた。
この分野は、手術訓練生や専門家の人口統計や、キネマティックスやビデオ以外のマルチモーダルデータを代表する、大きくて一般公開された注釈付きデータセットの恩恵を受けるだろう。
- 参考スコア(独自算出の注目度): 6.815366422701539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical training in medical school residency programs has followed the
apprenticeship model. The learning and assessment process is inherently
subjective and time-consuming. Thus, there is a need for objective methods to
assess surgical skills. Here, we use the Preferred Reporting Items for
Systematic Reviews and Meta-Analyses (PRISMA) guidelines to systematically
survey the literature on the use of Deep Neural Networks for automated and
objective surgical skill assessment, with a focus on kinematic data as putative
markers of surgical competency. There is considerable recent interest in deep
neural networks (DNN) due to the availability of powerful algorithms, multiple
datasets, some of which are publicly available, as well as efficient
computational hardware to train and host them. We have reviewed 530 papers, of
which we selected 25 for this systematic review. Based on this review, we
concluded that DNNs are powerful tools for automated, objective surgical skill
assessment using both kinematic and video data. The field would benefit from
large, publicly available, annotated datasets that are representative of the
surgical trainee and expert demographics and multimodal data beyond kinematics
and videos.
- Abstract(参考訳): 医学部在学プログラムにおける手術訓練は、見習いモデルに従っている。
学習と評価のプロセスは本質的に主観的で時間を要する。
したがって、手術スキルを評価するための客観的な方法が必要となる。
ここでは,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)ガイドラインを用いて,手術能力の指標としてキネマティックデータに着目し,Deep Neural Networksを用いた自動的かつ客観的な外科的スキル評価に関する文献を体系的に調査する。
強力なアルゴリズムや複数のデータセットが利用可能であることや、それらをトレーニングしてホストする効率的な計算ハードウェアがあることから、ディープニューラルネットワーク(dnn)に対する近年の関心が高まっている。
530の論文をレビューし,25の論文を体系的レビューに選定した。
本稿では,DNNが自動的かつ客観的な外科的スキル評価のための強力なツールであることを示す。
この分野は、手術訓練生や専門家の人口統計や、キネマティックスやビデオ以外のマルチモーダルデータを代表する、大きくて一般公開された注釈付きデータセットの恩恵を受けるだろう。
関連論文リスト
- An Efficient Contrastive Unimodal Pretraining Method for EHR Time Series Data [35.943089444017666]
本稿では,長期臨床経過データに適した比較事前学習法を提案する。
本モデルでは, 臨床医が患者の症状についてより深い知見を得られるように, 欠損測定をインプットする能力を示す。
論文 参考訳(メタデータ) (2024-10-11T19:05:25Z) - Medical Vision-Language Pre-Training for Brain Abnormalities [96.1408455065347]
本稿では,PubMedなどの公共リソースから,医用画像・テキスト・アライメントデータを自動的に収集する方法を示す。
特に,まず大きな脳画像テキストデータセットを収集することにより,事前学習プロセスの合理化を図るパイプラインを提案する。
また,医療領域におけるサブフィギュアをサブキャプションにマッピングするというユニークな課題についても検討した。
論文 参考訳(メタデータ) (2024-04-27T05:03:42Z) - Video-based Surgical Skill Assessment using Tree-based Gaussian Process
Classifier [2.3964255330849356]
本稿では,ビデオデータを用いた外科的スキル評価のための新しいパイプラインを提案する。
このパイプラインには、表現フロー畳み込みニューラルネットワークと、新しいツリーベースのガウスプロセス分類器が組み込まれている。
提案手法は,術者間のスキル向上を促進し,患者の安全性を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-15T21:06:22Z) - SurGNN: Explainable visual scene understanding and assessment of
surgical skill using graph neural networks [19.57785997767885]
本稿では,グラフニューラルネットワーク(GNN)を用いて視覚的シーン理解と手術的スキルアセスメントを高める方法について検討する。
GNNは解釈可能な結果を提供し、予測されたスキルメトリクスに寄与する特定のアクション、楽器、または解剖学的構造を明らかにする。
論文 参考訳(メタデータ) (2023-08-24T20:32:57Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Video-based assessment of intraoperative surgical skill [7.79874072121082]
本稿では,RGBビデオを用いて直接スキル評価を行う2つのディープラーニング手法を提案し,検証する。
第1の方法は,楽器の先端をキーポイントとして予測し,時間的畳み込みニューラルネットワークを用いて外科的スキルを学ぶことである。
第2の方法では,フレームワイド・エンコーダ(2次元畳み込みニューラルネットワーク)と時間モデル(リカレントニューラルネットワーク)を含む外科的スキル評価のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-05-13T01:45:22Z) - Video-based Formative and Summative Assessment of Surgical Tasks using
Deep Learning [0.8612287536028312]
本稿では,外科的スキル実行の高精度な評価を自動的かつ客観的に行うことができる深層学習(DL)モデルを提案する。
整形性評価は外科的パフォーマンスと相関する視覚特徴のヒートマップを用いて生成される。
論文 参考訳(メタデータ) (2022-03-17T20:07:48Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。