論文の概要: CodeBrain: Imputing Any Brain MRI via Modality- and Instance-Specific Codes
- arxiv url: http://arxiv.org/abs/2501.18328v2
- Date: Sun, 09 Mar 2025 02:55:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:43:36.035507
- Title: CodeBrain: Imputing Any Brain MRI via Modality- and Instance-Specific Codes
- Title(参考訳): CodeBrain: モダリティとインスタンス固有のコードを通じて、あらゆる脳MRIを命令する
- Authors: Yicheng Wu, Tao Song, Zhonghua Wu, Jin Ye, Zongyuan Ge, Zhaolin Chen, Jianfei Cai,
- Abstract要約: 統合脳MRIのためのパイプラインであるCodeBrainを提案する。
第一段階では、CodeBrainは、各インスタンスとモダリティのコンパクトなスカラー量子化コードを学ぶことによって、ターゲットのモダリティを再構築する。
第2段階では、プロジェクションエンコーダが訓練され、不完全なMRIサンプルから全モードのコンパクトコードを予測する。
- 参考スコア(独自算出の注目度): 39.308423499912806
- License:
- Abstract: Unified MRI imputation, which can adapt to diverse imputation scenarios, is highly desirable as it reduces scanning costs and provides comprehensive MRI information for improved clinical diagnosis. Existing unified MRI imputation methods either rely on specific prompts to guide their transformation network or require multiple modality-specific modules. However, these approaches struggle to capture large modality and instance variations or become too complex to generalize effectively. To address these limitations, we propose CodeBrain, a fundamentally different pipeline for unified brain MRI imputation. Our key idea is to reframe various inter-modality transformations as a full-modality code prediction task via a two-stage framework. In the first stage, CodeBrain reconstructs a target modality from any other modalities by learning a compact scalar-quantized code for each instance and modality. Any target modality can then be reconstructed with high fidelity by combining the corresponding code with shared features extracted from any available modality. In the second stage, a projection encoder is trained to predict full-modality compact codes from any incomplete MRI samples, effectively simulating various imputation scenarios. We evaluate our CodeBrain on two public brain MRI datasets (i.e., IXI and BraTS 2023). Extensive experiments demonstrate that CodeBrain outperforms state-of-the-art methods, setting a new benchmark for unified brain MRI imputation. Our code will be released.
- Abstract(参考訳): イメージングコストを低減し, 臨床診断を改善するための総合的なMRI情報を提供するため, 多様な計算シナリオに適応できる統一MRIインパクションが極めて望ましい。
既存のMRI命令法は、変換ネットワークを誘導する特定のプロンプトに依存するか、複数のモダリティ固有のモジュールを必要とする。
しかし、これらのアプローチは大きなモダリティとインスタンスの変動を捉えたり、効果的に一般化するには複雑すぎる。
これらの制約に対処するため,脳MRIを統一するパイプラインであるCodeBrainを提案する。
私たちのキーとなるアイデアは、2段階のフレームワークを通じて、さまざまなモダリティ間の変換をフルモダリティのコード予測タスクとして再編成することです。
第一段階では、CodeBrainは、インスタンスごとのコンパクトなスカラー量子化コードを学習することで、他のモダリティからターゲットモダリティを再構築する。
任意の目標モダリティは、対応するコードと利用可能なモダリティから抽出された共有特徴を組み合わせることで、高い忠実度で再構成することができる。
第2段階では、プロジェクションエンコーダがトレーニングされ、不完全なMRIサンプルから全モードのコンパクトコードを予測する。
CodeBrainを2つのパブリック脳MRIデータセット(IXIとBraTS 2023)で評価した。
大規模な実験により、CodeBrainは最先端の手法よりも優れており、統合脳MRI計算のための新しいベンチマークが設定されている。
私たちのコードは解放されます。
関連論文リスト
- UniBrain: A Unified Model for Cross-Subject Brain Decoding [22.49964298783508]
被験者固有のパラメータを必要としない統一脳復号モデルUniBrainを提案する。
提案手法は, 可変fMRI信号長を扱うグループベース抽出器, クロスオブジェクトの共通点を捕捉する相互支援組込み器, 被写体不変特徴を抽出するバイレベル特徴アライメント方式を含む。
我々は、UniBrainを脳復号ベンチマークで検証し、パラメータが極端に少ない現在の最先端の主題特化モデルに匹敵する性能を実現した。
論文 参考訳(メタデータ) (2024-12-27T07:03:47Z) - BrainSegFounder: Towards 3D Foundation Models for Neuroimage Segmentation [6.5388528484686885]
本研究は,医療基盤モデルの創出に向けた新しいアプローチを紹介する。
本稿では,視覚変換器を用いた2段階事前学習手法を提案する。
BrainFounderは、これまでの勝利ソリューションの成果を上回る、大幅なパフォーマンス向上を実演している。
論文 参考訳(メタデータ) (2024-06-14T19:49:45Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Neural Architecture Search for Gliomas Segmentation on Multimodal
Magnetic Resonance Imaging [2.66512000865131]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化課題に対するニューラルアーキテクチャサーチ(NAS)に基づくソリューションを提案する。
開発されたソリューションは、また、脳MRI処理に適した正規化とパッチ戦略を統合する。
論文 参考訳(メタデータ) (2020-05-13T14:32:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。