論文の概要: Video-based fully automatic assessment of open surgery suturing skills
- arxiv url: http://arxiv.org/abs/2110.13972v1
- Date: Tue, 26 Oct 2021 19:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 13:28:45.074668
- Title: Video-based fully automatic assessment of open surgery suturing skills
- Title(参考訳): ビデオによる開手術縫合スキルの完全自動評価
- Authors: Adam Goldbraikh, Anne-Lise D'Angelo, Carla M. Pugh, Shlomi Laufer
- Abstract要約: 本研究の目的は, 資源が限られている場合や, 国内環境が整った場合に, 医療学生を訓練するための, 信頼性の高い手術縫合シミュレーションシステムを開発することである。
そこで我々は,ツールと手動のローカライゼーションのためのアルゴリズムを開発し,簡単なウェブカメラ映像データに基づくインタラクションの同定を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of this study was to develop new reliable open surgery suturing
simulation system for training medical students in situation where resources
are limited or in the domestic setup. Namely, we developed an algorithm for
tools and hands localization as well as identifying the interactions between
them based on simple webcam video data, calculating motion metrics for
assessment of surgical skill. Twenty-five participants performed multiple
suturing tasks using our simulator. The YOLO network has been modified to a
multi-task network, for the purpose of tool localization and tool-hand
interaction detection. This was accomplished by splitting the YOLO detection
heads so that they supported both tasks with minimal addition to computer
run-time. Furthermore, based on the outcome of the system, motion metrics were
calculated. These metrics included traditional metrics such as time and path
length as well as new metrics assessing the technique participants use for
holding the tools. The dual-task network performance was similar to that of two
networks, while computational load was only slightly bigger than one network.
In addition, the motion metrics showed significant differences between experts
and novices. While video capture is an essential part of minimally invasive
surgery, it is not an integral component of open surgery. Thus, new algorithms,
focusing on the unique challenges open surgery videos present, are required. In
this study, a dual-task network was developed to solve both a localization task
and a hand-tool interaction task. The dual network may be easily expanded to a
multi-task network, which may be useful for images with multiple layers and for
evaluating the interaction between these different layers.
- Abstract(参考訳): 本研究の目的は, 資源が限られている場合や, 家庭内施設において, 医療学生を訓練するための, 信頼性の高い手術縫合シミュレーションシステムを開発することである。
そこで我々は,簡単なWebカメラ映像データに基づいて,ツールと手のローカライゼーションのためのアルゴリズムを開発し,手術技術の評価のための動作指標を算出した。
25名の被験者がシミュレータを用いて複数の縫合作業を行った。
YOLOネットワークは、ツールのローカライゼーションとツールハンドインタラクション検出を目的としたマルチタスクネットワークに修正されている。
これは、YOLO検出ヘッドを分割して、コンピュータ実行時間に最小限の追加で両方のタスクをサポートすることで達成された。
さらに, システムの結果から, 動きの計測値が算出された。
これらのメトリクスには、時間やパスの長さといった従来のメトリクスと、参加者がツールを保持するために使用するテクニックを評価する新しいメトリクスが含まれていました。
デュアルタスクネットワークの性能は2つのネットワークと似ているが、計算負荷は1つのネットワークよりわずかに大きい。
さらに, 運動測定値には, 専門家と初心者の間に有意な差が認められた。
ビデオキャプチャーは最小侵襲手術の不可欠な部分であるが、開腹手術の不可欠な要素ではない。
したがって,オープン手術ビデオのユニークな課題に焦点をあてた新しいアルゴリズムが必要である。
本研究では,ローカライズタスクとハンドツールインタラクションタスクの両方を解決するために,デュアルタスクネットワークを開発した。
デュアルネットワークはマルチタスクネットワークに容易に拡張でき、複数のレイヤを持つ画像や、これらの異なるレイヤ間の相互作用を評価するのに有用である。
関連論文リスト
- SAR-RARP50: Segmentation of surgical instrumentation and Action
Recognition on Robot-Assisted Radical Prostatectomy Challenge [72.97934765570069]
外科的動作認識と意味計測のセグメンテーションのための,最初のマルチモーダルなインビボデータセットを公開し,ロボット補助根治術(RARP)の50の縫合ビデオセグメントを収録した。
この課題の目的は、提供されたデータセットのスケールを活用し、外科領域における堅牢で高精度なシングルタスクアクション認識とツールセグメンテーションアプローチを開発することである。
合計12チームがこのチャレンジに参加し、7つのアクション認識方法、9つの計器のセグメンテーション手法、そしてアクション認識と計器のセグメンテーションを統合した4つのマルチタスクアプローチをコントリビュートした。
論文 参考訳(メタデータ) (2023-12-31T13:32:18Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Identification of Cognitive Workload during Surgical Tasks with
Multimodal Deep Learning [20.706268332427157]
関連する認知ワークロード(CWL)の増加は、予期せぬ、反復的なタスクへの対処から生じる。
本稿では,CWLのマルチモーダル認識のための2つの機械学習手法のカスケードを提案する。
畳み込みニューラルネットワーク(CNN)は、この情報を用いて、各手術タスクに関連するさまざまなタイプのCWLを識別する。
論文 参考訳(メタデータ) (2022-09-12T18:29:34Z) - Surgical Skill Assessment via Video Semantic Aggregation [20.396898001950156]
本稿では,異なる意味的部分を発見し,時間次元にまたがって集約する,スキルアセスメントフレームワークであるビデオセマンティックアグリゲーション(ViSA)を提案する。
意味的部分の明示的な発見は、ニューラルネットワークの決定を理解するのに役立つ説明的可視化を提供する。
2つのデータセットの実験は、最先端の手法と比較して、ViSAの競争力を示している。
論文 参考訳(メタデータ) (2022-08-04T12:24:01Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Detection and Localization of Robotic Tools in Robot-Assisted Surgery
Videos Using Deep Neural Networks for Region Proposal and Detection [30.042965489804356]
本稿では,RASビデオ理解におけるツール検出と局所化の解法を提案する。
本稿では,マルチモーダル畳み込みニューラルネットワークを用いたRASビデオにおけるツールの高速検出とローカライズのためのアーキテクチャを提案する。
平均精度91%, 平均時間0.1秒で測定した結果, 従来の医用画像撮影法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-07-29T10:59:15Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z) - NeurAll: Towards a Unified Visual Perception Model for Automated Driving [8.49826472556323]
本稿では,複数のタスクを同時に学習するためのマルチタスクネットワーク設計を提案する。
自動運転システムの主なボトルネックは、デプロイメントハードウェアで利用可能な限られた処理能力である。
論文 参考訳(メタデータ) (2019-02-10T12:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。