論文の概要: MRI-CORE: A Foundation Model for Magnetic Resonance Imaging
- arxiv url: http://arxiv.org/abs/2506.12186v1
- Date: Fri, 13 Jun 2025 19:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.390312
- Title: MRI-CORE: A Foundation Model for Magnetic Resonance Imaging
- Title(参考訳): MRI-CORE : 磁気共鳴イメージングの基礎モデル
- Authors: Haoyu Dong, Yuwen Chen, Hanxue Gu, Nicholas Konz, Yaqian Chen, Qihang Li, Maciej A. Mazurowski,
- Abstract要約: 我々は、MRI-COREを紹介した。MRI-COREは、メインの18箇所で110,000以上のMRIボリュームから600万スライス以上を使用して、事前訓練された視覚基盤モデルである。
MRIにおける5つの多様なオブジェクトセグメンテーションタスクの実験により、MRI-COREはラベル付きデータ可用性に制限のある現実的なシナリオにおけるセグメンテーション性能を大幅に改善できることを示した。
- 参考スコア(独自算出の注目度): 10.722046937558627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread use of Magnetic Resonance Imaging (MRI) and the rise of deep learning have enabled the development of powerful predictive models for a wide range of diagnostic tasks in MRI, such as image classification or object segmentation. However, training models for specific new tasks often requires large amounts of labeled data, which is difficult to obtain due to high annotation costs and data privacy concerns. To circumvent this issue, we introduce MRI-CORE (MRI COmprehensive Representation Encoder), a vision foundation model pre-trained using more than 6 million slices from over 110,000 MRI volumes across 18 main body locations. Experiments on five diverse object segmentation tasks in MRI demonstrate that MRI-CORE can significantly improve segmentation performance in realistic scenarios with limited labeled data availability, achieving an average gain of 6.97% 3D Dice Coefficient using only 10 annotated slices per task. We further demonstrate new model capabilities in MRI such as classification of image properties including body location, sequence type and institution, and zero-shot segmentation. These results highlight the value of MRI-CORE as a generalist vision foundation model for MRI, potentially lowering the data annotation resource barriers for many applications.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)の広範利用とディープラーニングの台頭により、MRIにおける画像分類や物体分割などの幅広い診断タスクのための強力な予測モデルの開発が可能になった。
しかし、特定のタスクに対するトレーニングモデルは、しばしば大量のラベル付きデータを必要とするため、高いアノテーションコストとデータプライバシの懸念のために入手が困難である。
この問題を回避するため,MRI-CORE (MRI COmprehensive Representation Encoder) を導入した。
MRIにおける5つの多様なオブジェクトセグメンテーションタスクの実験では、MRI-COREはラベル付きデータ可用性が制限された現実的なシナリオにおけるセグメンテーション性能を著しく向上し、タスク毎に10個の注釈付きスライスしか使用せずに平均6.97%のDice Coefficientを達成している。
また、MRIにおける新しいモデル機能として、身体位置、シーケンスタイプ、施設、ゼロショットセグメンテーションなどの画像特性の分類について述べる。
これらの結果は、MRIの一般的なビジョン基盤モデルとしてのMRI-COREの価値を強調し、多くのアプリケーションにおいてデータアノテーションリソース障壁を低くする可能性がある。
関連論文リスト
- MRI Image Generation Based on Text Prompts [0.0]
本研究では,実際のMRIデータセットを取得する際の課題を解決するために,安定拡散(SD)モデルを用いたテキストプロンプトMRI画像生成について検討する。
SDモデルは3Tの高速MRIデータセットと0.3TのM4Rawデータセットを用いて微調整された。
Fr'echet Inception Distance (FID) やMulti-Scale Structure similarity (MS-SSIM) などの測定値を用いて微調整モデルの性能を評価した。
論文 参考訳(メタデータ) (2025-05-23T03:01:22Z) - Distillation-Driven Diffusion Model for Multi-Scale MRI Super-Resolution: Make 1.5T MRI Great Again [8.193689534916988]
7T MRIは空間分解能を著しく向上させ、解剖学的構造のより微細な可視化を可能にした。
標準1.5T MRIスキャンから7T様MRIを生成するために,超解像(SR)モデルを提案する。
学生モデルは7T SRタスクをステップで洗練し、教師モデルの推論フェーズから特徴マップをガイダンスとして活用する。
論文 参考訳(メタデータ) (2025-01-30T20:21:11Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - MRSegmentator: Multi-Modality Segmentation of 40 Classes in MRI and CT [29.48170108608303]
このモデルは、英国バイオバンクの1200個の手動3D軸MRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確な臓器(肺: DSC 0.96, 心臓: DSC 0.94)と解剖学的変化のある臓器(皮膚: DSC 0.96, 腎臓: DSC 0.95)に対して高い精度を示す。
CTとよく似ており、AMOS CTデータではDSC平均0.84$pm$ 0.11となる。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - SegmentAnyBone: A Universal Model that Segments Any Bone at Any Location
on MRI [13.912230325828943]
本稿では,MRIにおける骨分割のための汎用的,一般公開的なディープラーニングモデルを提案する。
提案モデルでは,完全自動セグメンテーションとプロンプトベースセグメンテーションの2つのモードで動作可能である。
1) さまざまなMRIプロトコルにまたがる新しいMRIデータセットの収集,注釈付けを行い,300以上の注釈付きボリュームと8485個の注釈付きスライスを含む。
論文 参考訳(メタデータ) (2024-01-23T18:59:25Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - Iterative Data Refinement for Self-Supervised MR Image Reconstruction [18.02961646651716]
自己教師型MR画像再構成のためのデータ改質フレームワークを提案する。
まず,自己教師付き手法と教師付き手法のパフォーマンスギャップの原因を解析する。
そして、このデータバイアスを低減するために、効果的な自己教師付きトレーニングデータ精錬法を設計する。
論文 参考訳(メタデータ) (2022-11-24T06:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。