論文の概要: brat: Aligned Multi-View Embeddings for Brain MRI Analysis
- arxiv url: http://arxiv.org/abs/2512.18679v1
- Date: Sun, 21 Dec 2025 10:37:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.453358
- Title: brat: Aligned Multi-View Embeddings for Brain MRI Analysis
- Title(参考訳): ブラット:脳MRI解析のための多視点埋め込み
- Authors: Maxime Kayser, Maksim Gridnev, Wanting Wang, Max Bain, Aneesh Rangnekar, Avijit Chatterjee, Aleksandr Petrov, Harini Veeraraghavan, Nathaniel C. Swinburne,
- Abstract要約: bratは、臨床報告と組み合わせたMRIで訓練された脳磁気共鳴画像(MRI)のための多視点表現学習フレームワークである。
脳MRIは、多種多様で、しばしば微妙な異常が3Dボリューム内のいくつかのスライスに局在しているため、ユニークな課題を呈している。
- 参考スコア(独自算出の注目度): 36.795218160666266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present brat (brain report alignment transformer), a multi-view representation learning framework for brain magnetic resonance imaging (MRI) trained on MRIs paired with clinical reports. Brain MRIs present unique challenges due to the presence of numerous, highly varied, and often subtle abnormalities that are localized to a few slices within a 3D volume. To address these challenges, we introduce a brain MRI dataset $10\times$ larger than existing ones, containing approximately 80,000 3D scans with corresponding radiology reports, and propose a multi-view pre-training approach inspired by advances in document retrieval. We develop an implicit query-feature matching mechanism and adopt concepts from quality-diversity to obtain multi-view embeddings of MRIs that are aligned with the clinical features given by report sentences. We evaluate our approach across multiple vision-language and vision tasks, demonstrating substantial performance improvements. The brat foundation models are publicly released.
- Abstract(参考訳): 脳磁気共鳴画像(MRI)のための多視点表現学習フレームワークであるブラット(ブレインレポートアライメント・トランスフォーマー)を臨床報告と組み合わせて検討した。
脳MRIは、多種多様で、しばしば微妙な異常が3Dボリューム内のいくつかのスライスに局在しているため、ユニークな課題を呈している。
これらの課題に対処するために,約80,000個の3Dスキャンと対応する放射線学レポートを含む脳MRIデータセットを既存のものよりも10ドルで導入し,文書検索の進歩にインスパイアされたマルチビュー事前学習アプローチを提案する。
我々は,暗黙的な問合せマッチング機構を開発し,品質多様性の概念を取り入れて,報告文から得られる臨床特徴に整合したMRIの多視点埋め込みを得る。
複数の視覚言語および視覚タスクにまたがるアプローチを評価し,大幅な性能向上を実証した。
ブラットファウンデーションモデルは公開されています。
関連論文リスト
- Decipher-MR: A Vision-Language Foundation Model for 3D MRI Representations [12.805804608410739]
Decipher-MRは、大規模なデータセットに基づいて訓練された3次元MRI固有の視覚言語基盤モデルである。
Decipher-MRは、自己指導型視覚学習とレポート誘導型テキスト監視を統合し、堅牢で一般化可能な表現を構築する。
以上の結果から,Decipher-MRはMRIベースのAIのスケーラブルで汎用的な基盤として確立され,臨床および研究領域における効率的な開発が促進される。
論文 参考訳(メタデータ) (2025-09-25T14:43:33Z) - M3Ret: Unleashing Zero-shot Multimodal Medical Image Retrieval via Self-Supervision [24.846428105192405]
我々は、モダリティ固有のカスタマイズなしで、統一されたビジュアルエンコーダであるM3Retを訓練する。
生成的(MAE)およびコントラスト的(SimDINO)自己教師型学習(SSL)パラダイムを用いて、転送可能な表現をうまく学習する。
提案手法は,DINOv3 やテキスト教師付き BMC-CLIP などの強力なベースラインを超越して,すべてのモダリティを横断するゼロショット画像画像検索において,新たな最先端技術を実現する。
論文 参考訳(メタデータ) (2025-09-01T10:59:39Z) - OmniMRI: A Unified Vision--Language Foundation Model for Generalist MRI Interpretation [5.3427577036717]
我々は、MRIワークフロー全体にわたって一般化するために設計された統合視覚言語基盤モデルであるOmniMRIを紹介する。
OmniMRIは60のパブリックデータセットからキュレートされた大規模で異質なコーパスで訓練されている。
結果は,単一アーキテクチャ内で多様なタスクを実行できるOmniMRIの能力を示している。
論文 参考訳(メタデータ) (2025-08-24T21:11:28Z) - Multi-modal Vision Pre-training for Medical Image Analysis [11.569448567735435]
自己教師型学習は、実世界のアプリケーションに対するトレーニングデータ要求を抑えることにより、医療画像解析を大いに促進してきた。
我々は,3つの代用タスクによる新しいマルチモーダル画像事前学習を行い,相互モダリティ表現と相関の学習を容易にする。
Dice Scoreは6つのセグメンテーションベンチマークで0.28%-14.47%改善し、4つの画像分類タスクで0.65%-18.07%向上した。
論文 参考訳(メタデータ) (2024-10-14T15:12:16Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Brain3D: Generating 3D Objects from fMRI [78.46936519561298]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Video4MRI: An Empirical Study on Brain Magnetic Resonance Image
Analytics with CNN-based Video Classification Frameworks [60.42012344842292]
3次元CNNモデルが磁気共鳴画像(MRI)解析の分野を支配している。
本稿では,アルツハイマー病とパーキンソン病の認識の4つのデータセットを実験に利用した。
効率の面では、ビデオフレームワークは3D-CNNモデルよりも5%から11%、トレーニング可能なパラメータは50%から66%少ない。
論文 参考訳(メタデータ) (2023-02-24T15:26:31Z) - DIGEST: Deeply supervIsed knowledGE tranSfer neTwork learning for brain
tumor segmentation with incomplete multi-modal MRI scans [16.93394669748461]
多モードMRI(Multi-modal magnetic resonance imaging)に基づく脳腫瘍の分節化は、脳腫瘍の診断、治療、術後の評価を支援する重要な役割を担っている。
既存の自動セグメンテーション法によって達成されたインスピレーション性能にもかかわらず、マルチモーダルMRIデータは実際の臨床応用では利用できない。
そこで本研究では,異なる条件下で正確な脳腫瘍セグメント化を実現するDIGEST(Deeply SupervIsed KnowledGE tranSfer neTwork)を提案する。
論文 参考訳(メタデータ) (2022-11-15T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。