論文の概要: Metadata-Conditioned Generative Models to Synthesize
Anatomically-Plausible 3D Brain MRIs
- arxiv url: http://arxiv.org/abs/2310.04630v1
- Date: Sat, 7 Oct 2023 00:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 17:11:12.649314
- Title: Metadata-Conditioned Generative Models to Synthesize
Anatomically-Plausible 3D Brain MRIs
- Title(参考訳): anatomically-plausible 3d brain mri合成のためのメタデータ条件付き生成モデル
- Authors: Wei Peng, Tomas Bosschieter, Jiahong Ouyang, Robert Paul, Ehsan Adeli,
Qingyu Zhao, Kilian M. Pohl
- Abstract要約: 本稿では, メタデータ条件付きMRI(例えば, 年齢, 性別別MRI)を合成するための新しい生成モデルであるBrain Synthを提案する。
以上の結果から, 合成MRIの脳領域の半数以上が解剖学的に正確であり, 実際のMRIと合成MRIの差は小さいことが示唆された。
われわれの合成MRIは畳み込みニューラルネットワークのトレーニングを大幅に改善し、加速度的老化効果を同定する。
- 参考スコア(独自算出の注目度): 12.492451825171408
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative AI models hold great potential in creating synthetic brain MRIs
that advance neuroimaging studies by, for example, enriching data diversity.
However, the mainstay of AI research only focuses on optimizing the visual
quality (such as signal-to-noise ratio) of the synthetic MRIs while lacking
insights into their relevance to neuroscience. To gain these insights with
respect to T1-weighted MRIs, we first propose a new generative model,
BrainSynth, to synthesize metadata-conditioned (e.g., age- and sex-specific)
MRIs that achieve state-of-the-art visual quality. We then extend our
evaluation with a novel procedure to quantify anatomical plausibility, i.e.,
how well the synthetic MRIs capture macrostructural properties of brain
regions, and how accurately they encode the effects of age and sex. Results
indicate that more than half of the brain regions in our synthetic MRIs are
anatomically accurate, i.e., with a small effect size between real and
synthetic MRIs. Moreover, the anatomical plausibility varies across cortical
regions according to their geometric complexity. As is, our synthetic MRIs can
significantly improve the training of a Convolutional Neural Network to
identify accelerated aging effects in an independent study. These results
highlight the opportunities of using generative AI to aid neuroimaging research
and point to areas for further improvement.
- Abstract(参考訳): 生成型AIモデルは、例えばデータの多様性を豊かにする神経画像研究を促進する合成脳MRIを作成する大きな可能性を秘めている。
しかし、AI研究の主目的は、合成MRIの視覚的品質(信号対雑音比など)を最適化することのみであり、その神経科学との関連性についての洞察を欠いている。
T1強調MRIについてこれらの知見を得るため、我々はまず、最先端の視覚的品質を実現するメタデータ条件付きMRI(例えば、年齢および性別特化MRI)を合成する新しい生成モデルBrainSynthを提案する。
次に,脳領域のマクロ構造特性を合成mriがいかにうまく捉えられるか,年齢や性別の影響をいかに正確にエンコードするかなど,解剖学的妥当性を定量化するための新しい手法を用いて評価を拡張した。
その結果、人工mriの脳領域の半分以上は解剖学的に正確であり、リアルmriと合成mriの間の効果は小さいことがわかった。
さらに、解剖学的妥当性は、その幾何学的複雑さに応じて皮質領域によって異なる。
現在、我々の合成MRIは畳み込みニューラルネットワークのトレーニングを大幅に改善し、独立研究における加速老化効果を同定することができる。
これらの結果は、生成AIを用いて神経画像研究を支援し、さらなる改善のための領域を指し示す機会を浮き彫りにする。
関連論文リスト
- Leveraging sinusoidal representation networks to predict fMRI signals
from EEG [3.3121941932506473]
本稿では,マルチチャネル脳波から直接fMRI信号を予測できる新しいアーキテクチャを提案する。
本モデルは,脳波の周波数情報を学習するための正弦波表現ネットワーク(SIREN)を実装して実現している。
我々は,脳波-fMRI同時データセットを8被験者で評価し,脳皮質下 fMRI 信号の予測の可能性について検討した。
論文 参考訳(メタデータ) (2023-11-06T03:16:18Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Data and Physics Driven Learning Models for Fast MRI -- Fundamentals and
Methodologies from CNN, GAN to Attention and Transformers [72.047680167969]
本稿では,畳み込みニューラルネットワークや生成的敵ネットワークに基づく手法を含む,高速MRIのためのディープラーニングに基づくデータ駆動手法を紹介する。
MRI加速のための物理とデータ駆動モデルの結合に関する研究について詳述する。
最後に, 臨床応用について紹介し, マルチセンター・マルチスキャナー研究における高速MRI技術におけるデータ調和の重要性と説明可能なモデルについて述べる。
論文 参考訳(メタデータ) (2022-04-01T22:48:08Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - Functional Magnetic Resonance Imaging data augmentation through
conditional ICA [44.483210864902304]
本稿では,高速機能型磁気共鳴イメージング(fMRI)データ拡張技術である条件独立成分分析(Conditional ICA)を紹介する。
本研究では,コンディショナルICAが観測不可能なデータの合成に成功しており,脳の復号化問題における分類精度の向上が期待できることを示す。
論文 参考訳(メタデータ) (2021-07-11T22:36:14Z) - NeuroGen: activation optimized image synthesis for discovery
neuroscience [9.621977197691747]
我々はNeuroGenと呼ばれる新しい計算戦略を提案し、限界を克服し、人間の視覚神経科学発見のための強力なツールを開発する。
NeuroGenは、人間の視覚のfMRIで訓練されたニューラルエンコーディングモデルと深層生成ネットワークを組み合わせて、予測された画像を合成し、マクロな脳活性化のターゲットパターンを達成する。
我々はNeuroGenによって作成された少数の合成画像を用いて、視覚刺激に対する局所的および個人的脳反応パターンの違いを検出し、増幅できることを実証した。
論文 参考訳(メタデータ) (2021-05-15T04:36:39Z) - EEG to fMRI Synthesis: Is Deep Learning a candidate? [0.913755431537592]
この研究は、脳波(EEG)ビューデータからfMRIデータを合成するために、Neural Processingから最先端の原理を使用する方法について、初めて包括的な情報を提供する。
オートエンコーダ,ジェネレータネットワーク,ペアワイズラーニングなど,最先端の合成手法の比較を行った。
結果は、fMRI脳画像マッピングに対する脳波の実現可能性を強調し、機械学習における現在の進歩の役割を指摘し、パフォーマンスをさらに向上するために、今後のコントリビューションの関連性を示す。
論文 参考訳(メタデータ) (2020-09-29T16:29:20Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Diffusion-Weighted Magnetic Resonance Brain Images Generation with
Generative Adversarial Networks and Variational Autoencoders: A Comparison
Study [55.78588835407174]
本研究では,高画質,多彩で現実的な拡散重み付き磁気共鳴画像が深部生成モデルを用いて合成可能であることを示す。
Introspective Variational AutoencoderとStyle-Based GANの2つのネットワークを医療分野におけるデータ拡張の資格として提示する。
論文 参考訳(メタデータ) (2020-06-24T18:00:01Z) - Incorporating structured assumptions with probabilistic graphical models
in fMRI data analysis [5.23143327587266]
我々は、fMRI研究の様々な領域で最近開発されたアルゴリズムについてレビューする。
これらのアルゴリズムも同様にfMRIの課題に取り組む。
認知神経科学における明示的モデル構築のより広範な採用を提唱する。
論文 参考訳(メタデータ) (2020-05-11T06:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。