論文の概要: ProstaTD: A Large-scale Multi-source Dataset for Structured Surgical Triplet Detection
- arxiv url: http://arxiv.org/abs/2506.01130v1
- Date: Sun, 01 Jun 2025 19:29:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.948188
- Title: ProstaTD: A Large-scale Multi-source Dataset for Structured Surgical Triplet Detection
- Title(参考訳): ProstaTD:構造化手術トリプルト検出のための大規模マルチソースデータセット
- Authors: Yiliang Chen, Zhixi Li, Cheng Xu, Alex Qinyang Liu, Xuemiao Xu, Jeremy Yuen-Chun Teoh, Shengfeng He, Jing Qin,
- Abstract要約: ProstaTDは、外科的三重項検出のための大規模な多施設データセットである。
ロボット補助前立腺切除術の技術的要求領域から開発された。
データセットは60,529のビデオフレームと165,567の注釈付きトリプルトインスタンスで構成されている。
- 参考スコア(独自算出の注目度): 34.96818119277855
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Surgical triplet detection has emerged as a pivotal task in surgical video analysis, with significant implications for performance assessment and the training of novice surgeons. However, existing datasets such as CholecT50 exhibit critical limitations: they lack precise spatial bounding box annotations, provide inconsistent and clinically ungrounded temporal labels, and rely on a single data source, which limits model generalizability.To address these shortcomings, we introduce ProstaTD, a large-scale, multi-institutional dataset for surgical triplet detection, developed from the technically demanding domain of robot-assisted prostatectomy. ProstaTD offers clinically defined temporal boundaries and high-precision bounding box annotations for each structured triplet action. The dataset comprises 60,529 video frames and 165,567 annotated triplet instances, collected from 21 surgeries performed across multiple institutions, reflecting a broad range of surgical practices and intraoperative conditions. The annotation process was conducted under rigorous medical supervision and involved more than 50 contributors, including practicing surgeons and medically trained annotators, through multiple iterative phases of labeling and verification. ProstaTD is the largest and most diverse surgical triplet dataset to date, providing a robust foundation for fair benchmarking, the development of reliable surgical AI systems, and scalable tools for procedural training.
- Abstract(参考訳): 外科的三重項検出は, 手術ビデオ解析において重要な課題であり, 成績評価や初診医の訓練に重要な意味を持つ。
しかし、CholecT50のような既存のデータセットは、正確な空間境界ボックスアノテーションが欠如しており、一貫性がなく臨床的に根拠のない時間ラベルを提供し、モデル一般化性を制限する単一のデータソースに依存しているため、これらの欠点に対処するために、ロボット補助前立腺切除術の技術的要求領域から開発された、外科的三重項検出のための大規模かつ多施設データセットであるProstaTDを導入する。
ProstaTDは、臨床的に定義された時間境界と、構造化三重項アクションごとに高精度なバウンディングボックスアノテーションを提供する。
このデータセットは60,529の動画フレームと165,567の注釈付きトリプルトインスタンスで構成され、複数の施設で行われている21の手術から収集され、幅広い外科的プラクティスと術中状況が反映されている。
このアノテーションプロセスは、厳格な医療監督の下で実施され、複数の反復的なラベル付けと検証のフェーズを通じて、外科医や医学的に訓練された注釈作成者を含む50人以上のコントリビュータが関与した。
ProstaTDは、これまでで最大かつ最も多様な手術用3重項データセットであり、公正なベンチマーク、信頼できる外科用AIシステムの開発、手続き訓練のためのスケーラブルなツールの堅牢な基盤を提供する。
関連論文リスト
- Phase-Informed Tool Segmentation for Manual Small-Incision Cataract Surgery [5.346116837157231]
白内障手術は世界中で最も一般的な手術であり、発展途上国では非常に高い負担がかかる。
現存する研究は主にパコ白内障手術に焦点を当てており、白内障治療が最も必要とされる地域では利用できない高価な技術である。
手動小切開白内障手術(英: Manual Small-Incision Cataract Surgery, MICS)は、手動小切開白内障手術(英語版) (MSICS) が好まれる低コストで高速な手術法である。
今回紹介するSankara-MSICSは,3,527フレームと3,527フレームの3,53本の手術用ビデオを含む,最初の包括的データセットである。
論文 参考訳(メタデータ) (2024-11-25T09:22:42Z) - Surgical Triplet Recognition via Diffusion Model [59.50938852117371]
外科的三重項認識は、次世代のコンテキスト対応手術室を実現するために必要不可欠なビルディングブロックである。
拡散モデルを用いた外科的三重項認識のための新しい生成フレームワークであるDifftを提案する。
CholecT45とColecT50データセットの実験は、手術用三重項認識のための新しい最先端性能を達成する上で、提案手法の優位性を示している。
論文 参考訳(メタデータ) (2024-06-19T04:43:41Z) - CholecTrack20: A Multi-Perspective Tracking Dataset for Surgical Tools [1.7059333957102913]
既存のデータセットは、外科固有のダイナミックスを捉えるのに失敗した、過度に汎用的な追跡形式に依存している。
外科手術における多クラス多ツール追跡のための特別なデータセットであるCholecTrack20を紹介する。
データセットは20のフル長の手術ビデオからなり、1fpsで注釈付けされ、35Kフレーム以上と65Kラベルのツールインスタンスが生成される。
論文 参考訳(メタデータ) (2023-12-12T15:18:15Z) - CholecTriplet2021: A benchmark challenge for surgical action triplet
recognition [66.51610049869393]
腹腔鏡下手術における三肢の認識のためにMICCAI 2021で実施した内視鏡的視力障害であるColecTriplet 2021を提案する。
課題の参加者が提案する最先端の深層学習手法の課題設定と評価について述べる。
4つのベースライン法と19の新しいディープラーニングアルゴリズムが提示され、手術ビデオから直接手術行動三重項を認識し、平均平均精度(mAP)は4.2%から38.1%である。
論文 参考訳(メタデータ) (2022-04-10T18:51:55Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。