論文の概要: Towards Unified Surgical Skill Assessment
- arxiv url: http://arxiv.org/abs/2106.01035v1
- Date: Wed, 2 Jun 2021 09:06:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:28:12.780952
- Title: Towards Unified Surgical Skill Assessment
- Title(参考訳): 統一手術スキルアセスメントに向けて
- Authors: Daochang Liu, Qiyue Li, Tingting Jiang, Yizhou Wang, Rulin Miao, Fei
Shan, Ziyu Li
- Abstract要約: 自動手術スキル評価のための統合型マルチパスフレームワークを提案する。
手術シミュレーションのJIGSAWSデータセットと腹腔鏡下手術の新たな臨床データセットについて実験を行った。
- 参考スコア(独自算出の注目度): 18.601526803020885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical skills have a great influence on surgical safety and patients'
well-being. Traditional assessment of surgical skills involves strenuous manual
efforts, which lacks efficiency and repeatability. Therefore, we attempt to
automatically predict how well the surgery is performed using the surgical
video. In this paper, a unified multi-path framework for automatic surgical
skill assessment is proposed, which takes care of multiple composing aspects of
surgical skills, including surgical tool usage, intraoperative event pattern,
and other skill proxies. The dependency relationships among these different
aspects are specially modeled by a path dependency module in the framework. We
conduct extensive experiments on the JIGSAWS dataset of simulated surgical
tasks, and a new clinical dataset of real laparoscopic surgeries. The proposed
framework achieves promising results on both datasets, with the
state-of-the-art on the simulated dataset advanced from 0.71 Spearman's
correlation to 0.80. It is also shown that combining multiple skill aspects
yields better performance than relying on a single aspect.
- Abstract(参考訳): 外科的スキルは手術の安全性や患者の幸福に大きな影響を与える。
伝統的な外科的スキルの評価には、効率性と再現性に欠ける厳格な手作業が含まれる。
そこで本研究では,手術映像を用いて手術の成績を自動的に予測する。
本稿では, 手術器具の使用状況, 術中イベントパターン, その他の技術プロキシなど, 外科的スキルを構成する複数の側面を考慮に入れた, 自動手術スキル評価のための統合型マルチパスフレームワークを提案する。
これらの異なる側面間の依存性関係は、フレームワーク内のパス依存モジュールによって特別にモデル化されます。
手術シミュレーションのJIGSAWSデータセットと腹腔鏡下手術の新たな臨床データセットについて広範な実験を行った。
提案手法は両データセットで有望な結果が得られ,0.71 スペアーマン相関から 0.80 までのシミュレーションデータセットの最先端技術が得られた。
また,複数のスキルを組み合わせることで,単一のスキルに依存するよりも優れたパフォーマンスが得られることを示した。
関連論文リスト
- ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Prediction of Post-Operative Renal and Pulmonary Complications Using
Transformers [69.81176740997175]
術後急性腎不全,肺合併症,院内死亡の予測におけるトランスフォーマーモデルの有用性について検討した。
以上の結果から,トランスフォーマーモデルにより術後合併症の予測や従来の機械学習モデルよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-06-01T14:08:05Z) - Surgical Phase Recognition in Laparoscopic Cholecystectomy [57.929132269036245]
本稿では,2段階推論パイプラインのキャリブレーションされた信頼度スコアを利用するTransformerに基づく手法を提案する。
提案手法はColec80データセットのベースラインモデルよりも優れており,様々なアクションセグメンテーション手法に適用できる。
論文 参考訳(メタデータ) (2022-06-14T22:55:31Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Learning Invariant Representation of Tasks for Robust Surgical State
Estimation [39.515036686428836]
外科的タスク不変状態推定ネットワークであるStiseNetを提案する。
StiseNetは、RASデータセット固有の外科的テクニックや手術環境のバリエーションの影響を最小限に抑える。
3つのデータセット上での最先端状態推定法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-18T02:32:50Z) - Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field [18.643159726513133]
本論文では,実際の臨床データセットを用いて外科的スキルアセスメントについて検討する。
手術領域のクリアネス(COF)は総合的な外科的スキルの指標として有用である。
COFのプロキシを通じて外科的スキルを予測するための,客観的かつ自動化されたフレームワークを提案する。
実験では, 提案手法はスピアマンの0.55の相関性を, 総合技術技術の基礎的真理と比較した。
論文 参考訳(メタデータ) (2020-08-27T07:12:16Z) - Automatic Gesture Recognition in Robot-assisted Surgery with
Reinforcement Learning and Tree Search [63.07088785532908]
共同手術におけるジェスチャー分割と分類のための強化学習と木探索に基づく枠組みを提案する。
我々のフレームワークは,JIGSAWSデータセットのサチューリングタスクにおいて,精度,編集スコア,F1スコアの点で,既存の手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2020-02-20T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。