論文の概要: Heidelberg Colorectal Data Set for Surgical Data Science in the Sensor
Operating Room
- arxiv url: http://arxiv.org/abs/2005.03501v5
- Date: Tue, 23 Feb 2021 14:32:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-05 23:43:51.340373
- Title: Heidelberg Colorectal Data Set for Surgical Data Science in the Sensor
Operating Room
- Title(参考訳): センサー操作室における手術データ科学のためのHeidelberg大腸データセット
- Authors: Lena Maier-Hein, Martin Wagner, Tobias Ross, Annika Reinke, Sebastian
Bodenstedt, Peter M. Full, Hellena Hempe, Diana Mindroc-Filimon, Patrick
Scholz, Thuy Nuong Tran, Pierangela Bruno, Anna Kisilenko, Benjamin M\"uller,
Tornike Davitashvili, Manuela Capek, Minu Tizabi, Matthias Eisenmann, Tim J.
Adler, Janek Gr\"ohl, Melanie Schellenberg, Silvia Seidlitz, T. Y. Emmy Lai,
B\"unyamin Pekdemir, Veith Roethlingshoefer, Fabian Both, Sebastian Bittel,
Marc Mengler, Lars M\"undermann, Martin Apitz, Annette Kopp-Schneider,
Stefanie Speidel, Hannes G. Kenngott, Beat P. M\"uller-Stich
- Abstract要約: 本稿では,Heidelberg Colorectal (HeiCo) データセットについて紹介する。
3種類の腹腔鏡下手術のために,手術室の医療機器から採取した30種類の腹腔鏡ビデオとそれに対応するセンサーデータからなる。
- 参考スコア(独自算出の注目度): 1.6276355161958829
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based tracking of medical instruments is an integral part of surgical
data science applications. Previous research has addressed the tasks of
detecting, segmenting and tracking medical instruments based on laparoscopic
video data. However, the proposed methods still tend to fail when applied to
challenging images and do not generalize well to data they have not been
trained on. This paper introduces the Heidelberg Colorectal (HeiCo) data set -
the first publicly available data set enabling comprehensive benchmarking of
medical instrument detection and segmentation algorithms with a specific
emphasis on method robustness and generalization capabilities. Our data set
comprises 30 laparoscopic videos and corresponding sensor data from medical
devices in the operating room for three different types of laparoscopic
surgery. Annotations include surgical phase labels for all video frames as well
as information on instrument presence and corresponding instance-wise
segmentation masks for surgical instruments (if any) in more than 10,000
individual frames. The data has successfully been used to organize
international competitions within the Endoscopic Vision Challenges 2017 and
2019.
- Abstract(参考訳): 画像に基づく医療機器の追跡は、外科データ科学応用の不可欠な部分である。
これまでの研究では、腹腔鏡映像データに基づく医療機器の検出、セグメンテーション、追跡の課題に取り組んできた。
しかし、提案手法は、挑戦的な画像に適用してもまだ失敗する傾向にあり、訓練されていないデータによく当てはまらない。
本稿では,Heidelberg Colorectal (HeiCo)データセットを紹介し,医療機器検出とセグメンテーションアルゴリズムの総合的なベンチマークを可能にする最初の公開データセットである。
手術室の医療機器からの30種類の腹腔鏡映像と対応するセンサデータとを3種類の異なる腹腔鏡手術用データセットとした。
注釈には、全てのビデオフレームの手術段階のラベル、および10,000フレーム以上の手術用機器(もしあれば)の機器の存在に関する情報が含まれる。
このデータは、2017年と2019年の内視鏡的ビジョンチャレンジにおける国際コンペティションの開催に成功している。
関連論文リスト
- Video Dataset for Surgical Phase, Keypoint, and Instrument Recognition in Laparoscopic Surgery (PhaKIR) [17.067466198535246]
本稿では,PhaKIRデータセット,Keypoint,Instrument Recognitionについて述べる。
PhaKIRは、フェーズラベル、楽器ポーズ情報、ピクセル精度の計測機器セグメンテーションを共同で提供する最初のマルチ機関データセットである。
データセットはZenodoプラットフォーム経由で,要求に応じて公開されている。
論文 参考訳(メタデータ) (2025-11-09T21:29:33Z) - ProstaTD: Bridging Surgical Triplet from Classification to Fully Supervised Detection [54.270188252068145]
ProstaTDは、ロボット補助前立腺切除術の技術的要求領域から開発された、外科的三重項検出のための大規模なデータセットである。
このデータセットは、71,775の動画フレームと196,490の注釈付きトリプルトインスタンスで構成され、複数の機関で実施された21の手術から収集された。
ProstaTDは、これまでで最大かつ最も多様な3重項データセットであり、単純な分類から正確な空間的境界と時間的境界を持つ完全な検出へとフィールドを移動している。
論文 参考訳(メタデータ) (2025-06-01T19:29:39Z) - TEMSET-24K: Densely Annotated Dataset for Indexing Multipart Endoscopic Videos using Surgical Timeline Segmentation [2.9776992449863613]
現在のビデオ分析は、手作業によるインデックス作成に依存している。
TEMSET-24Kは,経肛門的内視鏡的マイクロサマリー(TEMS)ビデオマイクロクリップからなるオープンソースデータセットである。
各クリップは、新しい階層的ラベリング分類を用いて、臨床専門家によって慎重に注釈付けされる。
論文 参考訳(メタデータ) (2025-02-10T17:37:34Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - CholecTrack20: A Dataset for Multi-Class Multiple Tool Tracking in
Laparoscopic Surgery [1.8076340162131013]
CholecTrack20は,3つの視点にわたるマルチクラスマルチツールトラッキングのための,綿密な注釈付きデータセットである。
データセットは、20の腹腔鏡ビデオと35,000のフレーム、65,000のアノテーション付きツールインスタンスで構成されている。
論文 参考訳(メタデータ) (2023-12-12T15:18:15Z) - Surgical tool classification and localization: results and methods from
the MICCAI 2022 SurgToolLoc challenge [69.91670788430162]
SurgLoc 2022 チャレンジの結果を示す。
目標は、ツール検出のためにトレーニングされた機械学習モデルにおいて、ツールの存在データを弱いラベルとして活用することだった。
これらの結果を機械学習と手術データ科学の幅広い文脈で論じることで結論付ける。
論文 参考訳(メタデータ) (2023-05-11T21:44:39Z) - EndoMapper dataset of complete calibrated endoscopy procedures [8.577980383972005]
本報告では,通常の診療で取得した内視鏡の完全配列の最初のコレクションであるEndomapperデータセットについて紹介する。
データは3Dマッピングとローカライゼーションシステムの構築に使用され、探索中に盲点を検出するなど、特別なタスクを実行できる。
論文 参考訳(メタデータ) (2022-04-29T17:10:01Z) - ERS: a novel comprehensive endoscopy image dataset for machine learning,
compliant with the MST 3.0 specification [0.0]
本論文は, フレキシブル内視鏡, 大腸内視鏡, カプセル内視鏡を用いた多ラベル包括的画像データセットであるERSについて述べる。
データセットには、内視鏡ビデオから約6000、約115,000のラベル付きフレーム、正確には22600の近似セグメンテーションマスク、フレキシブルとカプセルの内視鏡ビデオから123万のラベル付きフレームが含まれている。
論文 参考訳(メタデータ) (2022-01-21T15:39:45Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - m2caiSeg: Semantic Segmentation of Laparoscopic Images using
Convolutional Neural Networks [4.926395463398194]
深層学習に基づくセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・アルゴリズムを提案する。
実世界の外科手術の内視鏡的映像フィードから作成した注釈付きデータセットm2caiSegを提示する。
論文 参考訳(メタデータ) (2020-08-23T23:30:15Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。