論文の概要: Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field
- arxiv url: http://arxiv.org/abs/2008.11954v1
- Date: Thu, 27 Aug 2020 07:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 08:03:00.591081
- Title: Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field
- Title(参考訳): 手術現場のクリアネスによるインビボ臨床データの外科的スキル評価
- Authors: Daochang Liu, Tingting Jiang, Yizhou Wang, Rulin Miao, Fei Shan, Ziyu
Li
- Abstract要約: 本論文では,実際の臨床データセットを用いて外科的スキルアセスメントについて検討する。
手術領域のクリアネス(COF)は総合的な外科的スキルの指標として有用である。
COFのプロキシを通じて外科的スキルを予測するための,客観的かつ自動化されたフレームワークを提案する。
実験では, 提案手法はスピアマンの0.55の相関性を, 総合技術技術の基礎的真理と比較した。
- 参考スコア(独自算出の注目度): 18.643159726513133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surgical skill assessment is important for surgery training and quality
control. Prior works on this task largely focus on basic surgical tasks such as
suturing and knot tying performed in simulation settings. In contrast, surgical
skill assessment is studied in this paper on a real clinical dataset, which
consists of fifty-seven in-vivo laparoscopic surgeries and corresponding skill
scores annotated by six surgeons. From analyses on this dataset, the clearness
of operating field (COF) is identified as a good proxy for overall surgical
skills, given its strong correlation with overall skills and high
inter-annotator consistency. Then an objective and automated framework based on
neural network is proposed to predict surgical skills through the proxy of COF.
The neural network is jointly trained with a supervised regression loss and an
unsupervised rank loss. In experiments, the proposed method achieves 0.55
Spearman's correlation with the ground truth of overall technical skill, which
is even comparable with the human performance of junior surgeons.
- Abstract(参考訳): 手術スキル評価は手術訓練や品質管理において重要である。
このタスクの先行研究は、主にシミュレーション設定で行われる縫合や結び結びなどの基本的な外科的なタスクに焦点を当てている。
そこで本研究では,腹腔鏡下腹腔鏡下手術を施行した57例と,6名の外科医が注釈を付したスキルスコアとからなる実臨床データについて,手術スキルアセスメントについて検討した。
このデータセットの分析から,手術領域(cof)の明快さは,総合的スキルと高い注釈間一貫性と強い相関関係にあることから,手術スキル全体の良質な指標として同定された。
次に,cofのプロキシを通じて手術スキルを予測するために,ニューラルネットワークに基づく客観的かつ自動化されたフレームワークを提案する。
ニューラルネットワークは、教師付き回帰損失と教師なしランク損失とを共同で訓練する。
実験では, 若手外科医の人的パフォーマンスに匹敵する, 総合的技術スキルの基礎的真理とスピアマンの相関が0.55である。
関連論文リスト
- Multi-Modal Self-Supervised Learning for Surgical Feedback Effectiveness Assessment [66.6041949490137]
そこで本研究では,音声による音声入力とそれに対応する手術映像からの情報を統合して,フィードバックの有効性を予測する手法を提案する。
以上の結果から,手書きフィードバックと手術映像の両方が,訓練者の行動変化を個別に予測できることがわかった。
本研究は,手術フィードバックの自動評価を推進するためのマルチモーダル学習の可能性を示すものである。
論文 参考訳(メタデータ) (2024-11-17T00:13:00Z) - Automated Surgical Skill Assessment in Endoscopic Pituitary Surgery using Real-time Instrument Tracking on a High-fidelity Bench-top Phantom [9.41936397281689]
外科的スキルの改善は一般的に患者の成績の改善に関連しているが、評価は主観的であり、労働集約的である。
内視鏡下垂体手術の鼻相を模範として,シミュレートされた手術に焦点を当てた新しい公開データセットが導入された。
多層パーセプトロンは87%の精度で手術技量(初心者または専門家)を予測し、「可視時間測定のための全手術時間の割合」は高度な手術技量と相関した。
論文 参考訳(メタデータ) (2024-09-25T15:27:44Z) - ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - Hypergraph-Transformer (HGT) for Interactive Event Prediction in
Laparoscopic and Robotic Surgery [50.3022015601057]
腹腔内ビデオから外科的ワークフローの重要なインタラクティブな側面を理解し,予測できる予測型ニューラルネットワークを提案する。
我々は,既存の手術用データセットとアプリケーションに対するアプローチを検証し,アクション・トリプレットの検出と予測を行った。
この結果は、非構造的な代替案と比較して、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2024-02-03T00:58:05Z) - Video-based Surgical Skill Assessment using Tree-based Gaussian Process
Classifier [2.3964255330849356]
本稿では,ビデオデータを用いた外科的スキル評価のための新しいパイプラインを提案する。
このパイプラインには、表現フロー畳み込みニューラルネットワークと、新しいツリーベースのガウスプロセス分類器が組み込まれている。
提案手法は,術者間のスキル向上を促進し,患者の安全性を高める可能性を秘めている。
論文 参考訳(メタデータ) (2023-12-15T21:06:22Z) - Deep Multimodal Fusion for Surgical Feedback Classification [70.53297887843802]
外科的フィードバックの5カテゴリー分類を臨床的に検証した。
次に,テキスト,音声,ビデオモダリティの入力から,これらの5つのカテゴリの外科的フィードバックを分類するために,多ラベル機械学習モデルを開発した。
我々の研究の最終的な目標は、リアルタイムな文脈的外科的フィードバックのアノテーションを大規模に自動化することである。
論文 参考訳(メタデータ) (2023-12-06T01:59:47Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Quantification of Robotic Surgeries with Vision-Based Deep Learning [45.165919577877695]
本稿では,手術中に録画されたビデオのみを対象とする統合型ディープラーニングフレームワークRoboformerを提案する。
我々は,ミニマル侵襲型ロボット手術において,一般的な2種類のステップの4つのビデオベースデータセットに対して,我々の枠組みを検証した。
論文 参考訳(メタデータ) (2022-05-06T06:08:35Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - Real-time Informative Surgical Skill Assessment with Gaussian Process
Learning [12.019641896240245]
本研究は,ESSBSのためのガウス的プロセス学習に基づく自動的客観的外科的スキル評価手法を提案する。
提案手法は,計測器の動きを内視鏡座標に投影し,データ次元を減少させる。
実験結果から,完全外科手術における100%の予測精度と,リアルタイムの予測評価における90%の精度が得られた。
論文 参考訳(メタデータ) (2021-12-05T15:35:40Z) - Towards Unified Surgical Skill Assessment [18.601526803020885]
自動手術スキル評価のための統合型マルチパスフレームワークを提案する。
手術シミュレーションのJIGSAWSデータセットと腹腔鏡下手術の新たな臨床データセットについて実験を行った。
論文 参考訳(メタデータ) (2021-06-02T09:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。