論文の概要: Robustness of Deep Learning for Accelerated MRI: Benefits of Diverse
Training Data
- arxiv url: http://arxiv.org/abs/2312.10271v1
- Date: Sat, 16 Dec 2023 00:23:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:37:58.868880
- Title: Robustness of Deep Learning for Accelerated MRI: Benefits of Diverse
Training Data
- Title(参考訳): 加速度MRIにおける深層学習のロバスト性:横方向トレーニングデータの有用性
- Authors: Kang Lin and Reinhard Heckel
- Abstract要約: 加速MRIにおけるトレーニングデータがモデルの性能およびロバスト性に与える影響について検討する。
異なるMRIスキャナーと解剖学から得られた様々なデータ分布の組み合わせに基づいて訓練されたモデルは、特定の目標分布に対して最適な単一分布で訓練されたモデルと同等かそれ以上の堅牢性を示す。
- 参考スコア(独自算出の注目度): 27.31476057846302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based methods for image reconstruction are state-of-the-art for
a variety of imaging tasks. However, neural networks often perform worse if the
training data differs significantly from the data they are applied to. For
example, a network trained for accelerated magnetic resonance imaging (MRI) on
one scanner performs worse on another scanner. In this work, we investigate the
impact of the training data on the model's performance and robustness for
accelerated MRI. We find that models trained on the combination of various data
distributions, such as those obtained from different MRI scanners and
anatomies, exhibit robustness equal or superior to models trained on the best
single distribution for a specific target distribution. Thus training on
diverse data tends to improve robustness. Furthermore, training on diverse data
does not compromise in-distribution performance, i.e., a model trained on
diverse data yields in-distribution performance at least as good as models
trained on the more narrow individual distributions. Our results suggest that
training a model for imaging on a variety of distributions tends to yield a
more effective and robust model than maintaining separate models for individual
distributions.
- Abstract(参考訳): 画像再構成のためのディープラーニングベースの手法は、さまざまなイメージングタスクの最先端技術である。
しかし、トレーニングデータが適用されたデータと大きく異なる場合、ニューラルネットワークのパフォーマンスは悪化することが多い。
例えば、あるスキャナー上の加速磁気共鳴イメージング(MRI)のために訓練されたネットワークは、別のスキャナーでさらに悪化する。
本研究では,モデルの性能とmriのロバスト性に及ぼすトレーニングデータの影響について検討する。
異なるMRIスキャナーと解剖学から得られた様々なデータ分布の組み合わせに基づいて訓練されたモデルは、特定の目標分布に対して最適な単一分布で訓練されたモデルと同等かそれ以上の堅牢性を示す。
したがって、多様なデータのトレーニングは堅牢性を改善する傾向にある。
さらに、多様なデータのトレーニングは、分散性能を損なうことはない。つまり、多様なデータでトレーニングされたモデルは、より狭い個々の分布でトレーニングされたモデルと同じくらい、分散性能を得る。
以上の結果から,様々な分布を画像化するためのモデルの訓練は,個別分布の分離モデルを維持するよりも効果的で頑健なモデルになる可能性が示唆された。
関連論文リスト
- Rejection Sampling IMLE: Designing Priors for Better Few-Shot Image
Synthesis [7.234618871984921]
新たな研究分野は、限られたトレーニングデータで深層生成モデルを学ぶことを目的としている。
トレーニングに使用する事前分布を変更する新しいアプローチであるRS-IMLEを提案する。
これにより、既存のGANやIMLEベースの手法に比べて画質が大幅に向上する。
論文 参考訳(メタデータ) (2024-09-26T00:19:42Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Training Data Protection with Compositional Diffusion Models [99.46239561159953]
比較拡散モデル(CDM)は、異なるデータソース上で異なる拡散モデル(またはプロンプト)を訓練する手法である。
個々のモデルは、独立した、異なるタイミングで、異なる分散とドメインでトレーニングすることができる。
各モデルには、トレーニング中に露出したデータのサブセットに関する情報のみが含まれており、いくつかの形式のトレーニングデータ保護を可能にする。
論文 参考訳(メタデータ) (2023-08-02T23:27:49Z) - GSURE-Based Diffusion Model Training with Corrupted Data [35.56267114494076]
本稿では, 劣化データのみに基づく生成拡散モデルのための新しいトレーニング手法を提案する。
顔画像と磁気共鳴画像(MRI)の撮影技術について紹介する。
論文 参考訳(メタデータ) (2023-05-22T15:27:20Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - Effective Robustness against Natural Distribution Shifts for Models with
Different Training Data [113.21868839569]
効果的ロバスト性」は、分配内(ID)性能から予測できる以上の余分な分配外ロバスト性を測定する。
異なるデータに基づいてトレーニングされたモデルの有効ロバスト性を評価・比較するための新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-02-02T19:28:41Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Multi-Domain Joint Training for Person Re-Identification [51.73921349603597]
ReID(Deep Learning-based person Re-IDentification)は、優れたパフォーマンスを達成するために、大量のトレーニングデータを必要とすることが多い。
多様な環境からより多くのトレーニングデータを集めることで、ReIDのパフォーマンスが向上する傾向にある。
本稿では,パラメータを様々な要因に適応させることができる,Domain-Camera-Sample Dynamic Network (DCSD) というアプローチを提案する。
論文 参考訳(メタデータ) (2022-01-06T09:20:59Z) - About Explicit Variance Minimization: Training Neural Networks for
Medical Imaging With Limited Data Annotations [2.3204178451683264]
VAT(Variance Aware Training)法は、モデル損失関数に分散誤差を導入することにより、この特性を利用する。
多様な領域から得られた3つの医用画像データセットと様々な学習目標に対するVATの有効性を検証した。
論文 参考訳(メタデータ) (2021-05-28T21:34:04Z) - Improving Calibration and Out-of-Distribution Detection in Medical Image
Segmentation with Convolutional Neural Networks [8.219843232619551]
畳み込みニューラルネットワーク(CNN)は強力な医用画像分割モデルであることが示されている。
マルチタスク学習、すなわち、複数の異なるデータセット上で単一のモデルをトレーニングすることを提唱する。
一つのCNNが、文脈を自動的に認識し、各文脈における関心の組織を正確に区分することを学ぶだけでなく、そのようなジョイントモデルの方が、より正確でより良い校正された予測を持つことも示している。
論文 参考訳(メタデータ) (2020-04-12T23:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。