論文の概要: Three-dimensional end-to-end deep learning for brain MRI analysis
- arxiv url: http://arxiv.org/abs/2506.23916v1
- Date: Mon, 30 Jun 2025 14:44:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.106571
- Title: Three-dimensional end-to-end deep learning for brain MRI analysis
- Title(参考訳): 脳MRI解析のための3次元エンドツーエンドディープラーニング
- Authors: Radhika Juglan, Marta Ligero, Zunamys I. Carrero, Asier Rabasco, Tim Lenz, Leo Misera, Gregory Patrick Veldhuizen, Paul Kuntke, Hagen H. Kitzler, Sven Nebelung, Daniel Truhn, Jakob Nikolas Kather,
- Abstract要約: 本研究では,SFCN(Simple Fully Connected Network),DenseNet(DenseNet),Shifted Window(Swin)変換器(Shifted Window(Swin)変換器)の3つの既存3次元アーキテクチャを年齢・性別予測のために評価した。
SFCNは、AUCがUKBで1.00[1.00-1.00]、外部テストセットで0.85-0.91で、より複雑なアーキテクチャよりも一貫して優れていた。
年齢予測タスクでは、SFCNはUKBで2.66(r=0.89)、外部データセットで4.98-5.81(r=0.55-0.70)の平均絶対誤差(MAE)を示した。
- 参考スコア(独自算出の注目度): 1.0021251840264285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) methods are increasingly outperforming classical approaches in brain imaging, yet their generalizability across diverse imaging cohorts remains inadequately assessed. As age and sex are key neurobiological markers in clinical neuroscience, influencing brain structure and disease risk, this study evaluates three of the existing three-dimensional architectures, namely Simple Fully Connected Network (SFCN), DenseNet, and Shifted Window (Swin) Transformers, for age and sex prediction using T1-weighted MRI from four independent cohorts: UK Biobank (UKB, n=47,390), Dallas Lifespan Brain Study (DLBS, n=132), Parkinson's Progression Markers Initiative (PPMI, n=108 healthy controls), and Information eXtraction from Images (IXI, n=319). We found that SFCN consistently outperformed more complex architectures with AUC of 1.00 [1.00-1.00] in UKB (internal test set) and 0.85-0.91 in external test sets for sex classification. For the age prediction task, SFCN demonstrated a mean absolute error (MAE) of 2.66 (r=0.89) in UKB and 4.98-5.81 (r=0.55-0.70) across external datasets. Pairwise DeLong and Wilcoxon signed-rank tests with Bonferroni corrections confirmed SFCN's superiority over Swin Transformer across most cohorts (p<0.017, for three comparisons). Explainability analysis further demonstrates the regional consistency of model attention across cohorts and specific to each task. Our findings reveal that simpler convolutional networks outperform the denser and more complex attention-based DL architectures in brain image analysis by demonstrating better generalizability across different datasets.
- Abstract(参考訳): 深層学習(DL)法は、脳画像の古典的アプローチよりも優れていますが、様々な画像コホートにまたがる一般化性はまだ不十分です。
本研究は, 臨床神経科学において, 年齢と性別が重要な神経生物学的マーカーであり, 脳構造や疾患リスクに影響を与えるため, 既存の3次元アーキテクチャであるSimple Fully Connected Network (SFCN), DenseNet, and Shifted Window (Swin) Transformers, for age and sex prediction using T1-weighted MRI from four independent cohorts: UK Biobank (UKB, n=47,390), Dallas Lifespan Brain Study (DLBS, n=132), Parkinson's Progression Markers Initiative (PPMI, n=108 healthy control), Information eXtraction from Images (IXI, n=319), and Information eXtraction from Images (IXI, n=319)を評価した。
SFCNは、AUCが1.00[1.00-1.00]、AUCが0.85-0.91で、より複雑なアーキテクチャよりも一貫して優れていた。
年齢予測タスクでは、SFCNはUKBで2.66(r=0.89)、外部データセットで4.98-5.81(r=0.55-0.70)の平均絶対誤差(MAE)を示した。
Pairwise DeLong and Wilcoxon signed-rank tests with Bonferroni corrects confirmed SFCN's superiority over Swin Transformer across most cohorts (p<0.017, for three comparisons)。
説明可能性分析は、コホート全体と各タスクに特有のモデル注意の局所的一貫性をさらに示す。
その結果, より単純な畳み込みネットワークは, 脳画像解析において, より密度が高く, より複雑な注意に基づくDLアーキテクチャより優れていることがわかった。
関連論文リスト
- OpenMAP-BrainAge: Generalizable and Interpretable Brain Age Predictor [0.0]
我々は,年齢予測モデルを構築し,人口統計学的・技術的MRIスキャンに頑健な年齢予測モデルを構築した。
モデルでは、3つの視点からT1次元擬似3次元MRIを処理し、線形脳情報を含む。
論文 参考訳(メタデータ) (2025-06-21T05:24:42Z) - TissUnet: Improved Extracranial Tissue and Cranium Segmentation for Children through Adulthood [1.1144337101638346]
頭蓋骨,皮下脂肪,筋肉を3次元T1強調MRIから抽出する深層学習モデルTissUnetを提案する。
このモデルは155対のMRI断層撮影(CT)スキャンでトレーニングされ、9つのデータセットで検証された。
論文 参考訳(メタデータ) (2025-06-06T01:21:34Z) - Enhancing Brain Age Estimation with a Multimodal 3D CNN Approach Combining Structural MRI and AI-Synthesized Cerebral Blood Volume Data [14.815462507141163]
脳年齢ギャップ推定(BrainAGE)は、脳年齢を理解するための神経画像バイオマーカーである。
現在のアプローチでは、主にT1強調MRI(T1w MRI)データを使用し、構造脳情報のみをキャプチャする。
我々は,VGGに基づくアーキテクチャを用いたディープラーニングモデルを開発し,線形回帰を用いた予測を組み合わせた。
我々のモデルは3.95年の平均絶対誤差(MAE)とテストセットの$R2$ 0.943を達成し、類似したデータでトレーニングされた既存のモデルよりも優れていた。
論文 参考訳(メタデータ) (2024-12-01T21:54:08Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Unique Brain Network Identification Number for Parkinson's Individuals
Using Structural MRI [0.060379119983736775]
本稿では,個々の被験者の脳ネットワークを符号化する新しいアルゴリズム,Unique Brain Network Identification Number, UBNINを提案する。
各被験者の脳容積を解析し,各領域の灰白質容積の相関関係を用いて個々の隣接行列を構築した。
UBNINの数値表現は個々の脳ネットワークごとに異なることが観察された。
論文 参考訳(メタデータ) (2023-06-02T17:03:39Z) - Building Brains: Subvolume Recombination for Data Augmentation in Large
Vessel Occlusion Detection [56.67577446132946]
この戦略をデータから学ぶためには、標準的なディープラーニングベースのモデルに対して、大規模なトレーニングデータセットが必要である。
そこで本研究では, 異なる患者から血管木セグメントを組換えることで, 人工的なトレーニングサンプルを生成する方法を提案する。
拡張スキームに則って,タスク固有の入力を入力した3D-DenseNetを用いて,半球間の比較を行う。
論文 参考訳(メタデータ) (2022-05-05T10:31:57Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - CovidDeep: SARS-CoV-2/COVID-19 Test Based on Wearable Medical Sensors
and Efficient Neural Networks [51.589769497681175]
新型コロナウイルス(SARS-CoV-2)がパンデミックを引き起こしている。
SARS-CoV-2の逆転写-ポリメラーゼ連鎖反応に基づく現在の試験体制は、試験要求に追いついていない。
我々は,効率的なDNNと市販のWMSを組み合わせたCovidDeepというフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-20T21:47:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。