論文の概要: Towards Generalisable Foundation Models for 3D Brain MRI
- arxiv url: http://arxiv.org/abs/2510.23415v1
- Date: Mon, 27 Oct 2025 15:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.58862
- Title: Towards Generalisable Foundation Models for 3D Brain MRI
- Title(参考訳): 3次元脳MRIのための汎用基礎モデルに向けて
- Authors: Moona Mazher, Geoff J. M. Parker, Daniel C. Alexander,
- Abstract要約: 我々は、DINO-v2を拡張することで構築された脳MRIのための自己教師型基礎モデルBrainFoundを紹介する。
BrainFoundはDINO-v2を、シーケンシャルMRIスライスからの情報を取り込むことで、完全な3D脳解剖学をモデル化する。
シングルモーダル入力とマルチモーダル入力の両方をサポートし、疾患検出やイメージセグメンテーションなど、幅広い下流タスクを可能にする。
- 参考スコア(独自算出の注目度): 5.527537739064968
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Foundation models in artificial intelligence (AI) are transforming medical imaging by enabling general-purpose feature learning from large-scale, unlabeled datasets. In this work, we introduce BrainFound, a self-supervised foundation model for brain MRI, built by extending DINO-v2, a vision transformer originally designed for 2D natural images. BrainFound adapts DINO-v2 to model full 3D brain anatomy by incorporating volumetric information from sequential MRI slices, moving beyond conventional single-slice paradigms. It supports both single- and multimodal inputs, enabling a broad range of downstream tasks, including disease detection and image segmentation, while generalising across varied imaging protocols and clinical scenarios. We show that BrainFound consistently outperforms existing self-supervised pretraining strategies and supervised baselines, particularly in label-scarce and multi-contrast settings. By integrating information from diverse 3D MRI modalities (e.g., T1, T2, FLAIR), it enhances diagnostic accuracy and reduces dependency on extensive expert annotations. This flexibility makes BrainFound a scalable and practical solution for 3D neuroimaging pipelines, with significant potential for clinical deployment and research innovation.
- Abstract(参考訳): 人工知能(AI)の基盤モデルは、大規模でラベルなしのデータセットから汎用的な特徴学習を可能にすることで、医療画像の変換を行っている。
本研究では、脳MRIのための自己教師型基礎モデルであるBrainFoundを紹介し、DINO-v2を拡張して構築する。
BrainFoundはDINO-v2に適応して、シーケンシャルMRIスライスからボリューム情報を取り込み、従来の単一スライスパラダイムを超えて、完全な3D脳解剖をモデル化する。
シングルモーダル入力とマルチモーダル入力の両方をサポートし、病気の検出や画像のセグメンテーションを含む幅広い下流タスクを可能にし、さまざまなイメージングプロトコルや臨床シナリオにまたがる一般化を実現している。
BrainFoundは、既存の自己指導型事前学習戦略と教師付きベースライン、特にラベルスカースやマルチコントラスト設定において、一貫して優れています。
多様な3D MRIモダリティ(例えば、T1、T2、FLAIR)からの情報を統合することで、診断精度を高め、広範な専門家アノテーションへの依存を減らすことができる。
この柔軟性により、BrainFoundは3Dニューロイメージングパイプラインのスケーラブルで実践的なソリューションとなり、臨床展開や研究のイノベーションに大きな可能性を秘めている。
関連論文リスト
- Building a General SimCLR Self-Supervised Foundation Model Across Neurological Diseases to Advance 3D Brain MRI Diagnoses [2.4836875944302634]
3次元脳構造MRIのための汎用高分解能SimCLRベースSSL基盤モデルを提案する。
アルツハイマー病の予測にはラベル付きトレーニングサンプルの20%しか使用していない。
論文 参考訳(メタデータ) (2025-09-12T18:05:08Z) - M3Ret: Unleashing Zero-shot Multimodal Medical Image Retrieval via Self-Supervision [24.846428105192405]
我々は、モダリティ固有のカスタマイズなしで、統一されたビジュアルエンコーダであるM3Retを訓練する。
生成的(MAE)およびコントラスト的(SimDINO)自己教師型学習(SSL)パラダイムを用いて、転送可能な表現をうまく学習する。
提案手法は,DINOv3 やテキスト教師付き BMC-CLIP などの強力なベースラインを超越して,すべてのモダリティを横断するゼロショット画像画像検索において,新たな最先端技術を実現する。
論文 参考訳(メタデータ) (2025-09-01T10:59:39Z) - BrainSegFounder: Towards 3D Foundation Models for Neuroimage Segmentation [6.5388528484686885]
本研究は,医療基盤モデルの創出に向けた新しいアプローチを紹介する。
本稿では,視覚変換器を用いた2段階事前学習手法を提案する。
BrainFounderは、これまでの勝利ソリューションの成果を上回る、大幅なパフォーマンス向上を実演している。
論文 参考訳(メタデータ) (2024-06-14T19:49:45Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Brain3D: Generating 3D Objects from fMRI [78.46936519561298]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Neuro-Vision to Language: Enhancing Brain Recording-based Visual Reconstruction and Language Interaction [8.63068449082585]
非侵襲的な脳記録の復号化は、人間の認知の理解を深める鍵となる。
本研究では,視覚変換器を用いた3次元脳構造と視覚的意味論を統合した。
マルチモーダル大モデル開発を支援するために,fMRI画像関連テキストデータを用いたfMRIデータセットを改良した。
論文 参考訳(メタデータ) (2024-04-30T10:41:23Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - 3D Brainformer: 3D Fusion Transformer for Brain Tumor Segmentation [6.127298607534532]
深層学習は、最近脳腫瘍のセグメンテーションを改善するために現れた。
変換器は畳み込みネットワークの限界に対処するために利用されてきた。
本稿では,3次元トランスフォーマーを用いたセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-28T02:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。