論文の概要: Deep Learning Based Cardiac MRI Segmentation: Do We Need Experts?
- arxiv url: http://arxiv.org/abs/2107.11447v1
- Date: Fri, 23 Jul 2021 20:10:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 12:36:20.017814
- Title: Deep Learning Based Cardiac MRI Segmentation: Do We Need Experts?
- Title(参考訳): 深層学習に基づく心臓MRIのセグメンテーション:専門家は必要か?
- Authors: Youssef Skandarani, Pierre-Marc Jodoin and Alain Lalande
- Abstract要約: 非専門的な基盤データに基づいてトレーニングされたセグメンテーションニューラルネットワークは、すべての実用目的に対して、専門家の基盤データと同様に優れたものであることを示す。
我々は、心臓データセットのアノテーションを効率的かつ安価に作成する機会を強調した。
- 参考スコア(独自算出の注目度): 12.36854197042851
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods are the de-facto solutions to a multitude of medical
image analysis tasks. Cardiac MRI segmentation is one such application which,
like many others, requires a large number of annotated data so a trained
network can generalize well. Unfortunately, the process of having a large
number of manually curated images by medical experts is both slow and utterly
expensive. In this paper, we set out to explore whether expert knowledge is a
strict requirement for the creation of annotated datasets that machine learning
can successfully train on. To do so, we gauged the performance of three
segmentation models, namely U-Net, Attention U-Net, and ENet, trained with
different loss functions on expert and non-expert groundtruth for cardiac
cine-MRI segmentation. Evaluation was done with classic segmentation metrics
(Dice index and Hausdorff distance) as well as clinical measurements, such as
the ventricular ejection fractions and the myocardial mass. Results reveal that
generalization performances of a segmentation neural network trained on
non-expert groundtruth data is, to all practical purposes, as good as on expert
groundtruth data, in particular when the non-expert gets a decent level of
training, highlighting an opportunity for the efficient and cheap creation of
annotations for cardiac datasets.
- Abstract(参考訳): ディープ・ラーニング(Deep Learning)は、医療画像解析タスクのデファクト・ソリューションである。
心臓MRIセグメント化(Cardiac MRI segmentation)は、他の多くのアプリケーションと同様に、トレーニングされたネットワークが適切に一般化できるように、大量の注釈付きデータを必要とするアプリケーションである。
残念なことに、医療専門家による大量の手作業による画像のキュレーションプロセスは、遅くて全く高価である。
本稿では、機械学習がうまくトレーニングできる注釈付きデータセットの作成において、専門家の知識が厳しい要件であるかどうかを検討する。
そこで我々は,U-Net,Attention U-Net,ENetの3つのセグメンテーションモデルの性能評価を行った。
心室吐出率や心筋量など,古典的セグメンテーション測定値(Dice index, Hausdorff distance)と臨床測定値を用いて評価を行った。
その結果,非熟練の基幹データで訓練されたセグメンテーションニューラルネットの一般化性能は,専門家の基幹データと同等に実用的であり,特に非熟練者が適正なトレーニングレベルを得た場合において,心臓データセットのためのアノテーションを効率的かつ安価に作成する機会を浮き彫りにした。
関連論文リスト
- Expert-Adaptive Medical Image Segmentation [1.3428344011390778]
ディープニューラルネットワーク(DNN)に基づく主流医療画像分割手法
医学領域では、異なる専門家によって生成されたアノテーションは本質的に区別できる。
本研究では,マルチエキスパートアノテーション,マルチタスクDNNモデルトレーニング,軽量モデル微調整を特徴とする,カスタマイズされたエキスパート適応手法の評価を行う。
論文 参考訳(メタデータ) (2024-02-11T23:39:42Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Extraction of volumetric indices from echocardiography: which deep
learning solution for clinical use? [6.144041824426555]
提案した3D nnU-Netは,2D法と繰り返しセグメンテーション法よりも優れていることを示す。
実験の結果、十分なトレーニングデータがあれば、3D nnU-Netは日常的な臨床機器の基準を満たす最初の自動化ツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-03T09:38:52Z) - Is Contrastive Learning Suitable for Left Ventricular Segmentation in
Echocardiographic Images? [0.0]
心エコー画像では,左心室の分画に造影前訓練が有用であるか否かを論じる。
自己教師付きでモデルをトレーニングし、わずか5%のデータを微調整すると、最先端の完全教師付きアルゴリズムに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2022-01-16T13:09:47Z) - Segmentation with Multiple Acceptable Annotations: A Case Study of
Myocardial Segmentation in Contrast Echocardiography [12.594060034146125]
我々は,複数の受理基底真理が利用できる場合にセグメント化性能を評価するために,新たな拡張Diceを提案する。
次に、ニューラルネットが心筋の一般的な特徴を学習できるように、新たな指標を損失関数にさらに組み込むことで、第2の問題を解決する。
臨床MCEデータセットの実験結果から,提案した損失関数を用いてトレーニングしたニューラルネットワークは,既存のニューラルネットワークよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-29T17:32:24Z) - Are we using appropriate segmentation metrics? Identifying correlates of
human expert perception for CNN training beyond rolling the DICE coefficient [30.31460995779947]
2つの複雑なバイオメディカルセマンティックセグメンテーション問題に対する心理物理学的な実験を行った。
現在の標準メトリクスと損失関数は、専門家のセグメンテーション品質評価と適度に相関することを発見した。
畳み込みニューラルネットワーク(CNN)トレーニングにおいて、人間の専門家の知覚のような抽象的なメトリクスをどのように最適化するかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-03-10T17:29:11Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z) - Opportunities and Challenges of Deep Learning Methods for
Electrocardiogram Data: A Systematic Review [62.490310870300746]
心電図(Electrocardiogram、ECG)は、医学および医療において最も一般的に用いられる診断ツールの1つである。
深層学習法は心電図信号を用いた予測医療タスクにおいて有望な結果を得た。
本稿では、モデリングとアプリケーションの観点から、ECGデータに対するディープラーニング手法の体系的なレビューを行う。
論文 参考訳(メタデータ) (2019-12-28T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。