論文の概要: Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning
- arxiv url: http://arxiv.org/abs/2112.02598v1
- Date: Sun, 5 Dec 2021 15:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 17:03:36.496729
- Title: Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning
- Title(参考訳): ガウス過程学習によるリアルタイム外科的スキル評価
- Authors: Yangming Li, Randall Bly, Sarah Akkina, Rajeev C. Saxena, Ian
Humphreys, Mark Whipple, Kris Moe, Blake Hannaford
- Abstract要約: 本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
- 参考スコア(独自算出の注目度): 12.019641896240245
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Endoscopic Sinus and Skull Base Surgeries (ESSBSs) is a challenging and
potentially dangerous surgical procedure, and objective skill assessment is the
key components to improve the effectiveness of surgical training, to
re-validate surgeons' skills, and to decrease surgical trauma and the
complication rate in operating rooms. Because of the complexity of surgical
procedures, the variation of operation styles, and the fast development of new
surgical skills, the surgical skill assessment remains a challenging problem.
This work presents a novel Gaussian Process Learning-based heuristic automatic
objective surgical skill assessment method for ESSBSs. Different with classical
surgical skill assessment algorithms, the proposed method 1) utilizes the
kinematic features in surgical instrument relative movements, instead of using
specific surgical tasks or the statistics to assess skills in real-time; 2)
provide informative feedback, instead of a summative scores; 3) has the ability
to incrementally learn from new data, instead of depending on a fixed dataset.
The proposed method projects the instrument movements into the endoscope
coordinate to reduce the data dimensionality. It then extracts the kinematic
features of the projected data and learns the relationship between surgical
skill levels and the features with the Gaussian Process learning technique. The
proposed method was verified in full endoscopic skull base and sinus surgeries
on cadavers. These surgeries have different pathology, requires different
treatment and has different complexities. The experimental results show that
the proposed method reaches 100\% prediction precision for complete surgical
procedures and 90\% precision for real-time prediction assessment.
- Abstract(参考訳): 内視鏡下副鼻腔, 肩甲骨底部縫合術(ESSBSs)は, 外科的訓練の有効性の向上, 外科的手術のスキルの再評価, 手術室における外科的外傷の減少, 合併症率の低下など, 難易度が高く, 潜在的に危険な手術方法である。
手術手順の複雑化,手術スタイルの変化,新しい外科技の急速な発展などにより,外科的技能評価は依然として困難な課題である。
本稿では,新しいガウス過程学習に基づくessbssのためのヒューリスティック自動客観的手術スキル評価法を提案する。
古典的外科的技能評価アルゴリズムの違い, 提案手法
1)特定の外科的作業や統計を用いてリアルタイムの技能を評価する代わりに,手術器相対運動の運動特性を利用する。
2) 要約スコアの代わりに,情報的フィードバックを提供する。
3) 固定データセットに依存するのではなく,新たなデータから段階的に学習する能力を持つ。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
次に、投影されたデータの運動的特徴を抽出し、外科的スキルレベルとガウス過程学習技術との関係を学習する。
提案法は, 完全内視鏡的頭蓋底と陰洞手術で検証した。
これらの手術は病理が異なり、治療が異なり、複雑度が異なる。
実験の結果,本手法は術式全体の予測精度が100\%,実時間予測精度が90\%に達した。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - Video-based Surgical Skill Assessment using Tree-based Gaussian Process
Classifier [2.3964255330849356]
本稿では,ビデオデータを用いた外科的スキル評価のための新しいパイプラインを提案する。
このパイプラインには、表現フロー畳み込みニューラルネットワークと、新しいツリーベースのガウスプロセス分類器が組み込まれている。
提案手法は,術者間のスキル向上を促進し,患者の安全性を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-15T21:06:22Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Safe Deep RL for Intraoperative Planning of Pedicle Screw Placement [61.28459114068828]
安全な深部強化学習(DRL)に基づく訓練経路計画にリアルタイムな観察を活用するロボット脊椎手術の術中計画手法を提案する。
本手法は,ゴールドスタンダード (GS) 掘削計画に関して,90%の骨貫通を達成できた。
論文 参考訳(メタデータ) (2023-05-09T11:42:53Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Towards Unified Surgical Skill Assessment [18.601526803020885]
自動手術スキル評価のための統合型マルチパスフレームワークを提案する。
手術シミュレーションのJIGSAWSデータセットと腹腔鏡下手術の新たな臨床データセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-02T09:06:43Z) - Learning Invariant Representation of Tasks for Robust Surgical State
Estimation [39.515036686428836]
外科的タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetは、RASデータセット固有の外科的テクニックや手術環境のバリエーションの影響を最小限に抑える。
3つのデータセット上での最先端状態推定法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-18T02:32:50Z) - Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field [18.643159726513133]
本論文では,実際の臨床データセットを用いて外科的スキルアセスメントについて検討する。
手術領域のクリアネス(COF)は総合的な外科的スキルの指標として有用である。
COFのプロキシを通じて外科的スキルを予測するための,客観的かつ自動化されたフレームワークを提案する。
実験では, 提案手法はスピアマンの0.55の相関性を, 総合技術技術の基礎的真理と比較した。
論文 参考訳(メタデータ) (2020-08-27T07:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。