論文の概要: ReCAP: Recursive Cross Attention Network for Pseudo-Label Generation in Robotic Surgical Skill Assessment
- arxiv url: http://arxiv.org/abs/2407.05180v3
- Date: Thu, 24 Oct 2024 11:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 23:35:45.134691
- Title: ReCAP: Recursive Cross Attention Network for Pseudo-Label Generation in Robotic Surgical Skill Assessment
- Title(参考訳): ReCAP:ロボット手術技能評価における擬似ラベル生成のための再帰的クロスアテンションネットワーク
- Authors: Julien Quarez, Marc Modat, Sebastien Ourselin, Jonathan Shapey, Alejandro Granados,
- Abstract要約: 外科的スキル評価において、OATS(Objective Assessments of Technical Skills)とGRS(Global Rating Scale)は、訓練中の外科医を評価するための確立されたツールである。
最近の研究は、運動データ、ビデオ、またはそれらの組み合わせからGRSスコアを回帰することに焦点を当てている。
我々は,OSATSのスコアを集計し,外科的臨床試験において臨床的に有意な変動を見落としているため,GRSのみの回帰は限界であると主張している。
- 参考スコア(独自算出の注目度): 40.09498356923132
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In surgical skill assessment, the Objective Structured Assessments of Technical Skills (OSATS) and Global Rating Scale (GRS) are well-established tools for evaluating surgeons during training. These metrics, along with performance feedback, help surgeons improve and reach practice standards. Recent research on the open-source JIGSAWS dataset, which includes both GRS and OSATS labels, has focused on regressing GRS scores from kinematic data, video, or their combination. However, we argue that regressing GRS alone is limiting, as it aggregates OSATS scores and overlooks clinically meaningful variations during a surgical trial. To address this, we developed a recurrent transformer model that tracks a surgeon's performance throughout a session by mapping hidden states to six OSATS, derived from kinematic data, using a clinically motivated objective function. These OSATS scores are averaged to predict GRS, allowing us to compare our model's performance against state-of-the-art (SOTA) methods. We report Spearman's Correlation Coefficients (SCC) demonstrating that our model outperforms SOTA using kinematic data (SCC 0.83-0.88), and matches performance with video-based models. Our model also surpasses SOTA in most tasks for average OSATS predictions (SCC 0.46-0.70) and specific OSATS (SCC 0.56-0.95). The generation of pseudo-labels at the segment level translates quantitative predictions into qualitative feedback, vital for automated surgical skill assessment pipelines. A senior surgeon validated our model's outputs, agreeing with 77% of the weakly-supervised predictions (p=0.006).
- Abstract(参考訳): 外科的スキル評価において、OATS(Objective Structured Assessments of Technical Skills)とGRS(Global Rating Scale)は、訓練中の外科医を評価するための確立されたツールである。
これらのメトリクスは、パフォーマンスフィードバックとともに、外科医がトレーニング標準を改善し、到達するのに役立ちます。
GRSとOSATSのラベルを含むオープンソースのJIGSAWSデータセットに関する最近の研究は、キネマティックデータ、ビデオ、またはそれらの組み合わせからGRSスコアを回帰することに重点を置いている。
しかし,OSATSのスコアを集計し,外科的臨床試験において臨床的に有意な変動を見落としているため,GRSのみの回帰は制限されていると論じる。
そこで本研究では,臨床目的関数を用いて,隠れた状態を6つのOSATSにマッピングすることで,セッション中の外科医の動作を追跡するリカレントトランスフォーマーモデルを開発した。
これらのOSATSスコアはGRSを予測するために平均化され、モデルの性能を最先端(SOTA)手法と比較することができる。
我々はスピアマン相関係数(SCC)を報告し、我々のモデルがキネマティックデータ(SCC 0.83-0.88)を用いてSOTAより優れており、ビデオベースモデルと性能が一致していることを示した。
我々のモデルは、平均OSATS予測(SCC 0.46-0.70)や特定のOSATS(SCC 0.56-0.95)において、ほとんどのタスクにおいてSOTAを上回る。
セグメントレベルでの擬似ラベルの生成は、定量的予測を質的なフィードバックに翻訳する。
主治医は, 弱教師付き予測の77% (p=0.006) と一致し, 結果の妥当性を検証した。
関連論文リスト
- Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - Machine Learning for ALSFRS-R Score Prediction: Making Sense of the Sensor Data [44.99833362998488]
筋萎縮性側索硬化症(Amyotrophic Lateral Sclerosis、ALS)は、急速に進行する神経変性疾患である。
iDPP@CLEF 2024チャレンジを先導した今回の調査は,アプリから得られるセンサデータを活用することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-10T19:17:23Z) - ZEAL: Surgical Skill Assessment with Zero-shot Tool Inference Using Unified Foundation Model [0.07143413923310668]
本研究はZEAL (unifiEd foundAtion modeLを用いたゼロショット手術ツールセグメンテーションによる外科的スキル評価)について紹介する。
ZEALはセグメンテーションマスクを予測し、楽器と周辺の両方の本質的な特徴を捉えている。
外科的スキルスコアを生成し、客観的な熟練度を提供する。
論文 参考訳(メタデータ) (2024-07-03T01:20:56Z) - Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Semi-supervised ViT knowledge distillation network with style transfer
normalization for colorectal liver metastases survival prediction [1.283897253352624]
本稿では,H&EおよびHPSで染色した組織学的スライドを用いて,自動予後予測のためのエンドツーエンドアプローチを提案する。
まずGAN(Generative Adversarial Network)を用いてスライス正規化を行い、染色のばらつきを低減し、予測パイプラインへの入力として使用される画像の全体的な品質を向上させる。
転移性結節および周囲組織から抽出した特徴を利用して予後モデルを訓練し,同時に知識蒸留フレームワークで視覚変換器(ViT)を訓練し,予後予測の性能を再現し,向上させる。
論文 参考訳(メタデータ) (2023-11-17T03:32:11Z) - Clinical Deterioration Prediction in Brazilian Hospitals Based on
Artificial Neural Networks and Tree Decision Models [56.93322937189087]
超強化ニューラルネットワーク(XBNet)は臨床劣化(CD)を予測するために用いられる
XGBoostモデルはブラジルの病院のデータからCDを予測する最良の結果を得た。
論文 参考訳(メタデータ) (2022-12-17T23:29:14Z) - MAPPING: Model Average with Post-processing for Stroke Lesion
Segmentation [57.336056469276585]
我々は nnU-Net フレームワークに基づく脳卒中病変のセグメンテーションモデルを提案し, ストローク後の解剖学的トレースに応用する。
本手法は,2022年のMICCAI ATLAS Challengeにおいて,平均Diceスコアが0.6667,Lesion-wise F1スコアが0.5643,Simple Lesion Countスコアが4.5367,Volume differenceスコアが8804.9102であった。
論文 参考訳(メタデータ) (2022-11-11T14:17:04Z) - Surgical Skill Assessment on In-Vivo Clinical Data via the Clearness of
Operating Field [18.643159726513133]
本論文では,実際の臨床データセットを用いて外科的スキルアセスメントについて検討する。
手術領域のクリアネス(COF)は総合的な外科的スキルの指標として有用である。
COFのプロキシを通じて外科的スキルを予測するための,客観的かつ自動化されたフレームワークを提案する。
実験では, 提案手法はスピアマンの0.55の相関性を, 総合技術技術の基礎的真理と比較した。
論文 参考訳(メタデータ) (2020-08-27T07:12:16Z) - Temporal Segmentation of Surgical Sub-tasks through Deep Learning with
Multiple Data Sources [14.677001578868872]
本稿では,タスクが進行するにつれて発生する動作や事象に基づいて,統一的な手術状態推定モデルを提案する。
JHU-ISI Gesture and Skill Assessment Working Set(JIGSAWS)と,ロボット内超音波(RIOUS)画像を含むより複雑なデータセットについて検討した。
本モデルでは,89.4%まで優れたフレームワイド状態推定精度を実現し,最先端の手術状態推定モデルを改善する。
論文 参考訳(メタデータ) (2020-02-07T17:49:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。