論文の概要: Few-Shot Deployment of Pretrained MRI Transformers in Brain Imaging Tasks
- arxiv url: http://arxiv.org/abs/2508.05783v1
- Date: Thu, 07 Aug 2025 18:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.986903
- Title: Few-Shot Deployment of Pretrained MRI Transformers in Brain Imaging Tasks
- Title(参考訳): 脳イメージング課題におけるMRI変圧器のFew-Shot展開
- Authors: Mengyu Li, Guoyao Shen, Chad W. Farris, Xin Zhang,
- Abstract要約: 種々の脳画像タスクにおいて,事前訓練したMRIトランスフォーマーを数発配置するためのフレームワークを提案する。
Masked Autoencoder (MAE) 事前学習戦略を利用することで,タスクやデータセット間でよく一般化された,高度に伝達可能な潜在表現が得られる。
- 参考スコア(独自算出の注目度): 2.982793366290863
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning using transformers has shown great potential in medical imaging, but its real-world applicability remains limited due to the scarcity of annotated data. In this study, we propose a practical framework for the few-shot deployment of pretrained MRI transformers in diverse brain imaging tasks. By utilizing the Masked Autoencoder (MAE) pretraining strategy on a large-scale, multi-cohort brain MRI dataset comprising over 31 million slices, we obtain highly transferable latent representations that generalize well across tasks and datasets. For high-level tasks such as classification, a frozen MAE encoder combined with a lightweight linear head achieves state-of-the-art accuracy in MRI sequence identification with minimal supervision. For low-level tasks such as segmentation, we propose MAE-FUnet, a hybrid architecture that fuses multiscale CNN features with pretrained MAE embeddings. This model consistently outperforms other strong baselines in both skull stripping and multi-class anatomical segmentation under data-limited conditions. With extensive quantitative and qualitative evaluations, our framework demonstrates efficiency, stability, and scalability, suggesting its suitability for low-resource clinical environments and broader neuroimaging applications.
- Abstract(参考訳): トランスフォーマーを用いた機械学習は、医療画像において大きな可能性を示しているが、その実際の適用性は、注釈付きデータの不足のために制限されている。
本研究では,脳画像の多彩なタスクにおいて,事前訓練したMRIトランスフォーマーを数発配置するための実践的枠組みを提案する。
そこで,Masked Autoencoder (MAE) プレトレーニング戦略を3300万スライス以上の大規模マルチコア脳MRIデータセット上で利用することにより,タスクやデータセット全体にわたってよく一般化された,高度に伝達可能な潜在表現を得る。
分類などの高レベルなタスクでは、凍結MAEエンコーダと軽量リニアヘッドが組み合わさって、MRIシーケンス識別における最先端の精度を最小限の監視で達成する。
セグメンテーションなどの低レベルタスクに対しては,マルチスケールCNN機能と事前トレーニングされたMAE埋め込みを融合したハイブリッドアーキテクチャであるMAE-FUnetを提案する。
このモデルは、データ制限条件下で、頭蓋骨の剥ぎ取りと多クラス解剖学的セグメンテーションにおいて、他の強いベースラインを一貫して上回る。
定量的および定性的な評価により、我々のフレームワークは効率、安定性、拡張性を実証し、低リソース臨床環境とより広範な神経画像応用に適合することを示唆している。
関連論文リスト
- GM-LDM: Latent Diffusion Model for Brain Biomarker Identification through Functional Data-Driven Gray Matter Synthesis [4.336463644962463]
本研究では,遅延拡散モデル(LDM)を利用してMRI生成タスクの効率と精度を向上させる新しいフレームワークであるGM-LDMを紹介する。
GM-LDMは、大規模なABCD MRIデータセットで事前訓練された3Dオートエンコーダを統合し、KL分散損失による統計的一貫性を達成する。
このフレームワークは、機能的ネットワーク接続(FNC)データなどの条件データを柔軟に組み込んで、パーソナライズされた脳画像、バイオマーカーの識別、統合失調症のような脳疾患のための機能的構造情報翻訳を可能にする。
論文 参考訳(メタデータ) (2025-06-15T04:51:31Z) - Foundation Model for Whole-Heart Segmentation: Leveraging Student-Teacher Learning in Multi-Modal Medical Imaging [0.510750648708198]
心血管疾患の診断にはCTとMRIによる全肝分画が不可欠である。
既存の方法は、モダリティ固有のバイアスと、広範なラベル付きデータセットの必要性に苦慮している。
学生-教師アーキテクチャに基づく自己指導型学習フレームワークを用いて,全音節セグメンテーションのための基礎モデルを提案する。
論文 参考訳(メタデータ) (2025-03-24T14:47:54Z) - ZECO: ZeroFusion Guided 3D MRI Conditional Generation [11.645873358288648]
ZECOはZeroFusionでガイドされた3D MRI条件生成フレームワークである。
対応する3Dセグメンテーションマスクを備えた高忠実度MRI画像の抽出、圧縮、生成を行う。
ZECOは、脳MRIデータセットの定量的および質的な評価において、最先端モデルよりも優れている。
論文 参考訳(メタデータ) (2025-03-24T00:04:52Z) - MRGen: Segmentation Data Engine for Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では,データ合成における生成モデルの利用について検討する。
本稿では,テキストプロンプトとセグメンテーションマスクを条件とした医用画像合成のためのデータエンジンMRGenを提案する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - NeuroPictor: Refining fMRI-to-Image Reconstruction via Multi-individual Pretraining and Multi-level Modulation [55.51412454263856]
本稿では,fMRI信号を用いた拡散モデル生成過程を直接変調することを提案する。
様々な個人から約67,000 fMRI-imageペアのトレーニングを行うことで,fMRI-to-imageデコーディング能力に優れたモデルが得られた。
論文 参考訳(メタデータ) (2024-03-27T02:42:52Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans [16.93394669748461]
多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
論文 参考訳(メタデータ) (2022-11-15T09:01:14Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。