論文の概要: ERS: a novel comprehensive endoscopy image dataset for machine learning,
compliant with the MST 3.0 specification
- arxiv url: http://arxiv.org/abs/2201.08746v1
- Date: Fri, 21 Jan 2022 15:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 16:24:54.887854
- Title: ERS: a novel comprehensive endoscopy image dataset for machine learning,
compliant with the MST 3.0 specification
- Title(参考訳): ERS: MST 3.0仕様に準拠した機械学習のための新しい包括的内視鏡画像データセット
- Authors: Jan Cychnerski, Tomasz Dziubich, Adam Brzeski
- Abstract要約: 本論文は, フレキシブル内視鏡, 大腸内視鏡, カプセル内視鏡を用いた多ラベル包括的画像データセットであるERSについて述べる。
データセットには、内視鏡ビデオから約6000、約115,000のラベル付きフレーム、正確には22600の近似セグメンテーションマスク、フレキシブルとカプセルの内視鏡ビデオから123万のラベル付きフレームが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The article presents a new multi-label comprehensive image dataset from
flexible endoscopy, colonoscopy and capsule endoscopy, named ERS. The
collection has been labeled according to the full medical specification of
'Minimum Standard Terminology 3.0' (MST 3.0), describing all possible findings
in the gastrointestinal tract (104 possible labels), extended with an
additional 19 labels useful in common machine learning applications.
The dataset contains around 6000 precisely and 115,000 approximately labeled
frames from endoscopy videos, 3600 precise and 22,600 approximate segmentation
masks, and 1.23 million unlabeled frames from flexible and capsule endoscopy
videos. The labeled data cover almost entirely the MST 3.0 standard. The data
came from 1520 videos of 1135 patients.
Additionally, this paper proposes and describes four exemplary experiments in
gastrointestinal image classification task performed using the created dataset.
The obtained results indicate the high usefulness and flexibility of the
dataset in training and testing machine learning algorithms in the field of
endoscopic data analysis.
- Abstract(参考訳): 本稿では,フレキシブル内視鏡,大腸内視鏡,カプセル内視鏡から得られた包括的画像データセットersについて述べる。
このコレクションは、「最小標準用語3.0」(MST 3.0)の完全な医学仕様に従ってラベル付けされ、一般的な機械学習アプリケーションで有用な19のラベルで拡張された消化管(104のラベル)のすべての発見を記述している。
データセットには、内視鏡ビデオから約6000、約115,000のラベル付きフレーム、3600の精度と22600の近似セグメンテーションマスク、フレキシブルとカプセルの内視鏡ビデオから133万のラベル付きフレームが含まれている。
ラベル付きデータはほぼ完全にMST 3.0標準をカバーしている。
データは、1135人の患者の1520の動画から得られた。
さらに,作成したデータセットを用いて実施した消化器画像分類タスクの例示実験を4つ提案した。
得られた結果は、内視鏡データ解析の分野における機械学習アルゴリズムのトレーニングおよびテストにおけるデータセットの有用性と柔軟性を示す。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - Domain-Adaptive Pre-training of Self-Supervised Foundation Models for Medical Image Classification in Gastrointestinal Endoscopy [0.024999074238880488]
ビデオカプセル内視鏡は、消化管の詳細な画像を取得する非侵襲的な方法を提供することで、消化管内視鏡(GIE)の診断を変換した。
ビデオカプセル内視鏡は、消化管の詳細な画像を取得する非侵襲的な方法を提供することで、消化管内視鏡(GIE)の診断を変換した。
しかし、そのポテンシャルは、画像処理中に生成される画像の量によって制限されており、それは6~8時間で最大100万枚の画像を生成することができる。
論文 参考訳(メタデータ) (2024-10-21T22:52:25Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - GastroVision: A Multi-class Endoscopy Image Dataset for Computer Aided
Gastrointestinal Disease Detection [6.231109933741383]
本データセットは, 解剖学的所見, 病理所見, ポリープ除去症例, 正常所見を含む。
経験豊富なGI内科医によって注釈され、検証された。
我々のデータセットは、GI病の検出と分類のためのAIベースのアルゴリズムの開発を促進することができると信じている。
論文 参考訳(メタデータ) (2023-07-16T19:36:03Z) - Self-supervision for medical image classification: state-of-the-art
performance with ~100 labeled training samples per class [0.0]
ラベルを含まない自己蒸留法(DINO)における自己教師型DLの性能を解析した。
我々は,3つの画像モダリティとデータセットに対して,最先端の分類性能を実現する。
論文 参考訳(メタデータ) (2023-04-11T11:51:50Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - EndoMapper dataset of complete calibrated endoscopy procedures [8.577980383972005]
本報告では,通常の診療で取得した内視鏡の完全配列の最初のコレクションであるEndomapperデータセットについて紹介する。
データは3Dマッピングとローカライゼーションシステムの構築に使用され、探索中に盲点を検出するなど、特別なタスクを実行できる。
論文 参考訳(メタデータ) (2022-04-29T17:10:01Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z) - Heidelberg Colorectal Data Set for Surgical Data Science in the Sensor
Operating Room [1.6276355161958829]
本稿では,Heidelberg Colorectal (HeiCo) データセットについて紹介する。
3種類の腹腔鏡下手術のために,手術室の医療機器から採取した30種類の腹腔鏡ビデオとそれに対応するセンサーデータからなる。
論文 参考訳(メタデータ) (2020-05-07T14:04:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。