論文の概要: MRI-CORE: A Foundation Model for Magnetic Resonance Imaging
- arxiv url: http://arxiv.org/abs/2506.12186v1
- Date: Fri, 13 Jun 2025 19:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.390312
- Title: MRI-CORE: A Foundation Model for Magnetic Resonance Imaging
- Title(参考訳): MRI-CORE : 磁気共鳴イメージングの基礎モデル
- Authors: Haoyu Dong, Yuwen Chen, Hanxue Gu, Nicholas Konz, Yaqian Chen, Qihang Li, Maciej A. Mazurowski,
- Abstract要約: 我々は、MRI-COREを紹介した。MRI-COREは、メインの18箇所で110,000以上のMRIボリュームから600万スライス以上を使用して、事前訓練された視覚基盤モデルである。
MRIにおける5つの多様なオブジェクトセグメンテーションタスクの実験により、MRI-COREはラベル付きデータ可用性に制限のある現実的なシナリオにおけるセグメンテーション性能を大幅に改善できることを示した。
- 参考スコア(独自算出の注目度): 10.722046937558627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of Magnetic Resonance Imaging (MRI) and the rise of deep learning have enabled the development of powerful predictive models for a wide range of diagnostic tasks in MRI, such as image classification or object segmentation. However, training models for specific new tasks often requires large amounts of labeled data, which is difficult to obtain due to high annotation costs and data privacy concerns. To circumvent this issue, we introduce MRI-CORE (MRI COmprehensive Representation Encoder), a vision foundation model pre-trained using more than 6 million slices from over 110,000 MRI volumes across 18 main body locations. Experiments on five diverse object segmentation tasks in MRI demonstrate that MRI-CORE can significantly improve segmentation performance in realistic scenarios with limited labeled data availability, achieving an average gain of 6.97% 3D Dice Coefficient using only 10 annotated slices per task. We further demonstrate new model capabilities in MRI such as classification of image properties including body location, sequence type and institution, and zero-shot segmentation. These results highlight the value of MRI-CORE as a generalist vision foundation model for MRI, potentially lowering the data annotation resource barriers for many applications.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)の広範利用とディープラーニングの台頭により、MRIにおける画像分類や物体分割などの幅広い診断タスクのための強力な予測モデルの開発が可能になった。
しかし、特定のタスクに対するトレーニングモデルは、しばしば大量のラベル付きデータを必要とするため、高いアノテーションコストとデータプライバシの懸念のために入手が困難である。
この問題を回避するため,MRI-CORE (MRI COmprehensive Representation Encoder) を導入した。
MRIにおける5つの多様なオブジェクトセグメンテーションタスクの実験では、MRI-COREはラベル付きデータ可用性が制限された現実的なシナリオにおけるセグメンテーション性能を著しく向上し、タスク毎に10個の注釈付きスライスしか使用せずに平均6.97%のDice Coefficientを達成している。
また、MRIにおける新しいモデル機能として、身体位置、シーケンスタイプ、施設、ゼロショットセグメンテーションなどの画像特性の分類について述べる。
これらの結果は、MRIの一般的なビジョン基盤モデルとしてのMRI-COREの価値を強調し、多くのアプリケーションにおいてデータアノテーションリソース障壁を低くする可能性がある。
関連論文リスト
- Glioblastoma Overall Survival Prediction With Vision Transformers [6.318465743962574]
グリオ芽腫は最も攻撃的で一般的な脳腫瘍の1つで、生存期間は10~15ヶ月である。
本研究では,MRI画像を用いた総合生存(OS)予測のための新しい人工知能(AI)手法を提案する。
我々は視覚変換器(ViT)を用いてMRI画像から直接隠れた特徴を抽出し,腫瘍のセグメンテーションの必要性を排除した。
提案したモデルは、BRATSデータセットで評価され、テストセット上で62.5%の精度を達成した。
論文 参考訳(メタデータ) (2025-08-04T13:59:57Z) - A large-scale heterogeneous 3D magnetic resonance brain imaging dataset for self-supervised learning [4.49464615818827]
FOMO60Kは、13,900件のセッションと11,187件の被験者から得られた60,529個の脳磁気共鳴イメージング(MRI)の大規模な、異種データセットである。
新規ユーザへの入力障壁を低減しつつ、元の画像特性を保存するために、最小の事前処理を適用した。
論文 参考訳(メタデータ) (2025-06-17T11:48:05Z) - Towards a general-purpose foundation model for fMRI analysis [58.06455456423138]
我々は,4次元fMRIボリュームから学習し,多様なアプリケーション間で効率的な知識伝達を可能にするフレームワークであるNeuroSTORMを紹介する。
NeuroSTORMは、複数のセンターにまたがる5万人以上の被験者から5歳から100歳までの28.65万fMRIフレーム(→9000時間)で事前トレーニングされている。
年齢/性別予測、表現型予測、疾患診断、fMRI-to-image検索、タスクベースのfMRIの5つのタスクにおいて、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2025-06-11T23:51:01Z) - MRI Image Generation Based on Text Prompts [0.0]
本研究では,実際のMRIデータセットを取得する際の課題を解決するために,安定拡散(SD)モデルを用いたテキストプロンプトMRI画像生成について検討する。
SDモデルは3Tの高速MRIデータセットと0.3TのM4Rawデータセットを用いて微調整された。
Fr'echet Inception Distance (FID) やMulti-Scale Structure similarity (MS-SSIM) などの測定値を用いて微調整モデルの性能を評価した。
論文 参考訳(メタデータ) (2025-05-23T03:01:22Z) - Distillation-Driven Diffusion Model for Multi-Scale MRI Super-Resolution: Make 1.5T MRI Great Again [8.193689534916988]
7T MRIは空間分解能を著しく向上させ、解剖学的構造のより微細な可視化を可能にした。
標準1.5T MRIスキャンから7T様MRIを生成するために,超解像(SR)モデルを提案する。
学生モデルは7T SRタスクをステップで洗練し、教師モデルの推論フェーズから特徴マップをガイダンスとして活用する。
論文 参考訳(メタデータ) (2025-01-30T20:21:11Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - MRSegmentator: Multi-Modality Segmentation of 40 Classes in MRI and CT [29.48170108608303]
このモデルは、英国バイオバンクの1200個の手動3D軸MRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確な臓器(肺: DSC 0.96, 心臓: DSC 0.94)と解剖学的変化のある臓器(皮膚: DSC 0.96, 腎臓: DSC 0.95)に対して高い精度を示す。
CTとよく似ており、AMOS CTデータではDSC平均0.84$pm$ 0.11となる。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - SegmentAnyBone: A Universal Model that Segments Any Bone at Any Location
on MRI [13.912230325828943]
本稿では,MRIにおける骨分割のための汎用的,一般公開的なディープラーニングモデルを提案する。
提案モデルでは,完全自動セグメンテーションとプロンプトベースセグメンテーションの2つのモードで動作可能である。
1) さまざまなMRIプロトコルにまたがる新しいMRIデータセットの収集,注釈付けを行い,300以上の注釈付きボリュームと8485個の注釈付きスライスを含む。
論文 参考訳(メタデータ) (2024-01-23T18:59:25Z) - Testing the Segment Anything Model on radiology data [0.0]
Segment Anything Model (SAM)が最近提案され、画像セグメンテーションのための最初の基礎モデルとなっている。
非常に限られた症例では受け入れられるが、全体的な傾向から、これらのモデルがMRIセグメンテーションに不十分であることがわかる。
自然画像に基づいて訓練された基礎モデルは、予測モデリングの重要な側面となるが、他の画像モダリティで使用すると効果がないことが証明される。
論文 参考訳(メタデータ) (2023-12-20T09:45:21Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Iterative Data Refinement for Self-Supervised MR Image Reconstruction [18.02961646651716]
自己教師型MR画像再構成のためのデータ改質フレームワークを提案する。
まず,自己教師付き手法と教師付き手法のパフォーマンスギャップの原因を解析する。
そして、このデータバイアスを低減するために、効果的な自己教師付きトレーニングデータ精錬法を設計する。
論文 参考訳(メタデータ) (2022-11-24T06:57:16Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Data and Physics Driven Learning Models for Fast MRI -- Fundamentals and
Methodologies from CNN, GAN to Attention and Transformers [72.047680167969]
本稿では,畳み込みニューラルネットワークや生成的敵ネットワークに基づく手法を含む,高速MRIのためのディープラーニングに基づくデータ駆動手法を紹介する。
MRI加速のための物理とデータ駆動モデルの結合に関する研究について詳述する。
最後に, 臨床応用について紹介し, マルチセンター・マルチスキャナー研究における高速MRI技術におけるデータ調和の重要性と説明可能なモデルについて述べる。
論文 参考訳(メタデータ) (2022-04-01T22:48:08Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。