論文の概要: A benchmark for video-based laparoscopic skill analysis and assessment
- arxiv url: http://arxiv.org/abs/2602.09927v1
- Date: Tue, 10 Feb 2026 15:59:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.666761
- Title: A benchmark for video-based laparoscopic skill analysis and assessment
- Title(参考訳): ビデオによる腹腔鏡下スキル分析と評価のためのベンチマーク
- Authors: Isabel Funke, Sebastian Bodenstedt, Felix von Bechtolsheim, Florian Oehme, Michael Maruschke, Stefanie Herrlich, Jürgen Weitz, Marius Distler, Sören Torge Mees, Stefanie Speidel,
- Abstract要約: 本稿では,4つの腹腔鏡下トレーニングタスクのステレオビデオ記録1270件からなる腹腔鏡下スキル分析・アセスメントデータセットについて紹介する。
各録音には3つの独立したレーダから集約された構造化されたスキル評価と、タスク固有のエラーの有無を示すバイナリラベルがアノテートされる。
ビデオベースのスキルアセスメントとエラー認識のための既存手法と新規手法のベンチマークを容易にするため、各タスクに予め定義されたデータ分割を提供する。
- 参考スコア(独自算出の注目度): 1.5734501497837607
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Laparoscopic surgery is a complex surgical technique that requires extensive training. Recent advances in deep learning have shown promise in supporting this training by enabling automatic video-based assessment of surgical skills. However, the development and evaluation of deep learning models is currently hindered by the limited size of available annotated datasets. To address this gap, we introduce the Laparoscopic Skill Analysis and Assessment (LASANA) dataset, comprising 1270 stereo video recordings of four basic laparoscopic training tasks. Each recording is annotated with a structured skill rating, aggregated from three independent raters, as well as binary labels indicating the presence or absence of task-specific errors. The majority of recordings originate from a laparoscopic training course, thereby reflecting a natural variation in the skill of participants. To facilitate benchmarking of both existing and novel approaches for video-based skill assessment and error recognition, we provide predefined data splits for each task. Furthermore, we present baseline results from a deep learning model as a reference point for future comparisons.
- Abstract(参考訳): 腹腔鏡下手術(Laparoscopic surgery)は、広範囲の訓練を必要とする複雑な手術技術である。
近年の深層学習の進歩は, 外科的スキルの自動評価を可能にすることによって, このトレーニングを支援することを約束している。
しかし、ディープラーニングモデルの開発と評価は、現在利用可能な注釈付きデータセットの限られたサイズによって妨げられている。
このギャップに対処するために,4つの基本的な腹腔鏡トレーニングタスクの1270本のステレオビデオ記録を含む,腹腔鏡下スキル分析・アセスメント(LASANA)データセットを導入した。
各録音には3つの独立したレーダから集約された構造化されたスキル評価と、タスク固有のエラーの有無を示すバイナリラベルがアノテートされる。
録音の大部分は腹腔鏡下トレーニングコースに由来するため、参加者のスキルの自然な変化を反映している。
ビデオベースのスキルアセスメントとエラー認識のための既存手法と新規手法のベンチマークを容易にするため、各タスクに予め定義されたデータ分割を提供する。
さらに,今後の比較のための基準点として,深層学習モデルのベースライン結果を示す。
関連論文リスト
- Clinical-Prior Guided Multi-Modal Learning with Latent Attention Pooling for Gait-Based Scoliosis Screening [8.010714901985898]
思春期特発性強皮症(AIS)は,早期発見により進行を緩和できる脊髄変形である。
現在のスクリーニング手法は主観的であり、スケールが難しく、専門的な専門知識に依存している。
ビデオベースの歩行分析は、有望な代替手段を提供するが、現在のデータセットとメソッドは、しばしばデータ漏洩に悩まされる。
ScoliGaitは、トレーニング用の1,572の歩行ビデオクリップと、テスト用の300の完全に独立したクリップからなる、新しいベンチマークデータセットである。
論文 参考訳(メタデータ) (2026-02-06T14:44:22Z) - SurgXBench: Explainable Vision-Language Model Benchmark for Surgery [4.068223793121694]
VLM(Vision-Language Models)は、視覚とテキストのモダリティを横断する推論において、革新的な進歩をもたらした。
既存のモデルはパフォーマンスが限られており、その能力と限界を評価するためのベンチマーク研究の必要性を強調している。
ロボット支援型腹腔鏡による機器分類と動作分類のための2つのデータセットに対して,いくつかの先進VLMのゼロショット性能をベンチマークした。
論文 参考訳(メタデータ) (2025-05-16T00:42:18Z) - Watch and Learn: Leveraging Expert Knowledge and Language for Surgical Video Understanding [1.024113475677323]
データセットの欠如は、正確で包括的なワークフロー分析ソリューションの開発を妨げる。
本稿では,専門家を観察し,その説明を理解するための人間の学習手順から着想を得た,データの空間性と不均一性に対処する新しいアプローチを提案する。
手術領域に既存のデータセットが存在しないにもかかわらず,この課題に対処するため,外科的ビデオの高密度字幕化(DVC)のための最初の包括的ソリューションを提示する。
論文 参考訳(メタデータ) (2025-03-14T13:36:13Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - RIDE: Self-Supervised Learning of Rotation-Equivariant Keypoint
Detection and Invariant Description for Endoscopy [83.4885991036141]
RIDEは回転同変検出と不変記述のための学習に基づく手法である。
内視鏡画像の大規模なキュレーションを自己指導的に行う。
マッチングと相対的なポーズ推定タスクに対して、最先端のパフォーマンスを新たに設定する。
論文 参考訳(メタデータ) (2023-09-18T08:16:30Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - One-shot skill assessment in high-stakes domains with limited data via meta learning [0.0]
A-VBANetは、ワンショット学習を通じてドメインに依存しないスキルアセスメントを提供する、新しいメタラーニングモデルである。
腹腔鏡下胆嚢摘出術では99.5%,小切片設定では99.9%,腹腔鏡下胆嚢摘出術では89.7%の順応が得られた。
論文 参考訳(メタデータ) (2022-12-16T01:04:52Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - LRTD: Long-Range Temporal Dependency based Active Learning for Surgical
Workflow Recognition [67.86810761677403]
本稿では,費用対効果の高い手術ビデオ解析のための新しい能動的学習法を提案する。
具体的には,非局所的再帰的畳み込みネットワーク (NL-RCNet) を提案する。
手術ワークフロー認識タスクを実行することで,大規模な手術ビデオデータセット(Cholec80)に対するアプローチを検証する。
論文 参考訳(メタデータ) (2020-04-21T09:21:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。