論文の概要: Video-based Formative and Summative Assessment of Surgical Tasks using
Deep Learning
- arxiv url: http://arxiv.org/abs/2203.09589v1
- Date: Thu, 17 Mar 2022 20:07:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 13:32:49.015733
- Title: Video-based Formative and Summative Assessment of Surgical Tasks using
Deep Learning
- Title(参考訳): 深層学習を用いた手術作業の映像ベース定式化と要約評価
- Authors: Erim Yanik, Uwe Kruger, Xavier Intes, Rahul Rahul, and Suvranu De
- Abstract要約: 本稿では,外科的スキル実行の高精度な評価を自動的かつ客観的に行うことができる深層学習(DL)モデルを提案する。
整形性評価は外科的パフォーマンスと相関する視覚特徴のヒートマップを用いて生成される。
- 参考スコア(独自算出の注目度): 0.8612287536028312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To ensure satisfactory clinical outcomes, surgical skill assessment must be
objective, time-efficient, and preferentially automated - none of which is
currently achievable. Video-based assessment (VBA) is being deployed in
intraoperative and simulation settings to evaluate technical skill execution.
However, VBA remains manually- and time-intensive and prone to subjective
interpretation and poor inter-rater reliability. Herein, we propose a deep
learning (DL) model that can automatically and objectively provide a
high-stakes summative assessment of surgical skill execution based on video
feeds and low-stakes formative assessment to guide surgical skill acquisition.
Formative assessment is generated using heatmaps of visual features that
correlate with surgical performance. Hence, the DL model paves the way to the
quantitative and reproducible evaluation of surgical tasks from videos with the
potential for broad dissemination in surgical training, certification, and
credentialing.
- Abstract(参考訳): 良好な臨床結果を保証するために、外科的スキル評価は客観的、時間効率、優先的に自動化されなければならない。
ビデオベースアセスメント(VBA)は、技術スキルの実行を評価するために、術中およびシミュレーション設定にデプロイされている。
しかしながら、VBAは手動および時間集約的なままであり、主観的解釈とラター間の信頼性が低い。
そこで本研究では,映像フィードに基づく手術スキル実行の高精細度評価と低精細度評価を自動的かつ客観的に提供し,手術スキル獲得を支援する深層学習モデルを提案する。
形成的評価は手術成績と相関する視覚特徴のヒートマップを用いて行われる。
したがって、DLモデルは、手術訓練、認証、資格化において広く普及する可能性のあるビデオから、外科的タスクの定量的かつ再現可能な評価への道を開く。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Deep Learning for Surgical Instrument Recognition and Segmentation in Robotic-Assisted Surgeries: A Systematic Review [0.24342814271497581]
ロボットによる最小侵襲手術における手術器具のアノテートのための深層学習(DL)の適用は,手術技術の大幅な進歩を示している。
これらの高度なDLモデルは、手術器具の検出と分節の精度と効率を顕著に改善した。
外科教育におけるDLの応用は変革的である。
論文 参考訳(メタデータ) (2024-10-09T04:07:38Z) - ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - Video-based Surgical Skill Assessment using Tree-based Gaussian Process
Classifier [2.3964255330849356]
本稿では,ビデオデータを用いた外科的スキル評価のための新しいパイプラインを提案する。
このパイプラインには、表現フロー畳み込みニューラルネットワークと、新しいツリーベースのガウスプロセス分類器が組み込まれている。
提案手法は,術者間のスキル向上を促進し,患者の安全性を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-15T21:06:22Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Video-based Surgical Skills Assessment using Long term Tool Tracking [0.3324986723090368]
手術症例ビデオフィードから外科的スキルを自動評価するための動きに基づくアプローチを提案する。
提案されたパイプラインは、まず外科的ツールを確実に追跡し、運動軌跡を作成する。
提案手法と最先端追跡手法を用いて,トランスフォーマーに基づくスキルアセスメントと従来の機械学習手法を比較した。
論文 参考訳(メタデータ) (2022-07-05T18:15:28Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Deep Neural Networks for the Assessment of Surgical Skills: A Systematic
Review [6.815366422701539]
530の論文をレビューし,25の論文を体系的レビューに選定した。
深層ニューラルネットワークは,キネマティックデータとビデオデータの両方を用いて自動的,客観的な手術スキル評価を行うための強力なツールである,と結論づけた。
この分野は、手術訓練生や専門家の人口統計や、キネマティックスやビデオ以外のマルチモーダルデータを代表する、大きくて一般公開された注釈付きデータセットの恩恵を受けるだろう。
論文 参考訳(メタデータ) (2021-03-03T10:08:37Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z) - A Review of Computational Approaches for Evaluation of Rehabilitation
Exercises [58.720142291102135]
本稿では,モーションキャプチャシステムを用いたリハビリテーションプログラムにおける患者のパフォーマンスを評価するための計算手法についてレビューする。
エクササイズ評価のための再検討された計算手法は, 離散的な運動スコア, ルールベース, テンプレートベースアプローチの3つのカテゴリに分類される。
論文 参考訳(メタデータ) (2020-02-29T22:18:56Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。