論文の概要: Brain-ID: Learning Contrast-agnostic Anatomical Representations for
Brain Imaging
- arxiv url: http://arxiv.org/abs/2311.16914v2
- Date: Sun, 10 Mar 2024 14:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 15:10:22.702295
- Title: Brain-ID: Learning Contrast-agnostic Anatomical Representations for
Brain Imaging
- Title(参考訳): brain-id:脳イメージングのためのコントラスト非依存的解剖表現の学習
- Authors: Peirong Liu and Oula Puonti and Xiaoling Hu and Daniel C. Alexander
and Juan E. Iglesias
- Abstract要約: 脳画像のための解剖学的表現学習モデルであるBrain-IDを導入する。
提案された"Mild-to-Severe"イントラオブジェクト生成により、Brain-IDは被験者固有の脳解剖に対して堅牢である。
本稿では,物体内および物体間ロバスト性を評価するための新しい指標を提案し,その性能を4つの下流アプリケーションで評価する。
- 参考スコア(独自算出の注目度): 11.06907516321673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent learning-based approaches have made astonishing advances in calibrated
medical imaging like computerized tomography (CT), yet they struggle to
generalize in uncalibrated modalities -- notably magnetic resonance (MR)
imaging, where performance is highly sensitive to the differences in MR
contrast, resolution, and orientation. This prevents broad applicability to
diverse real-world clinical protocols. We introduce Brain-ID, an anatomical
representation learning model for brain imaging. With the proposed
"mild-to-severe" intra-subject generation, Brain-ID is robust to the
subject-specific brain anatomy regardless of the appearance of acquired images
(e.g., contrast, deformation, resolution, artifacts). Trained entirely on
synthetic data, Brain-ID readily adapts to various downstream tasks through
only one layer. We present new metrics to validate the intra- and inter-subject
robustness of Brain-ID features, and evaluate their performance on four
downstream applications, covering contrast-independent (anatomy
reconstruction/contrast synthesis, brain segmentation), and contrast-dependent
(super-resolution, bias field estimation) tasks. Extensive experiments on six
public datasets demonstrate that Brain-ID achieves state-of-the-art performance
in all tasks on different MRI modalities and CT, and more importantly,
preserves its performance on low-resolution and small datasets. Code is
available at https://github.com/peirong26/Brain-ID.
- Abstract(参考訳): 近年の学習ベースのアプローチは、CT(Computerized tomography)のような校正医療画像において驚くべき進歩を遂げている。しかし彼らは、MRIのコントラスト、解像度、方向の差に非常に敏感な、特に磁気共鳴(MR)イメージング(英語版)の非校正モダリティの一般化に苦慮している。
これにより、様々な現実世界の臨床プロトコルに適用できる。
脳画像のための解剖学的表現学習モデルであるBrain-IDを導入する。
提案された"mild-to-severe"のサブジェクト生成により、脳-idは獲得した画像(コントラスト、変形、分解、アーティファクトなど)の出現に関わらず、被験者固有の脳解剖学に頑健である。
完全に合成データに基づいてトレーニングされたBrain-IDは,ひとつのレイヤのみを通じて,さまざまな下流タスクに容易に適応する。
本稿では,脳-id特徴のサブジェクト内およびサブジェクト間ロバスト性を検証するための新しい指標を示し,コントラスト非依存(解剖学的再構成/コントラスト合成,脳分割)とコントラスト依存(超解像,バイアス場推定)の4つの下流アプリケーションでの性能を評価する。
6つの公開データセットに対する大規模な実験により、Brain-IDはさまざまなMRIモダリティとCT上のすべてのタスクにおいて最先端のパフォーマンスを達成し、さらに重要なのは、低解像度で小さなデータセットのパフォーマンスを維持できることが示されている。
コードはhttps://github.com/peirong26/Brain-IDで入手できる。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - BrainSegFounder: Towards 3D Foundation Models for Neuroimage Segmentation [6.5388528484686885]
本研究は,医療基盤モデルの創出に向けた新しいアプローチを紹介する。
本稿では,視覚変換器を用いた2段階事前学習手法を提案する。
BrainFounderは、これまでの勝利ソリューションの成果を上回る、大幅なパフォーマンス向上を実演している。
論文 参考訳(メタデータ) (2024-06-14T19:49:45Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Aligning brain functions boosts the decoding of visual semantics in
novel subjects [3.226564454654026]
脳の反応をビデオや静止画像に合わせることで脳の復号化を促進することを提案する。
提案手法はオブジェクト外デコード性能を最大75%向上させる。
また、テスト対象者に対して100分未満のデータが得られる場合、古典的な単一オブジェクトアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T15:55:20Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - SAM vs BET: A Comparative Study for Brain Extraction and Segmentation of
Magnetic Resonance Images using Deep Learning [0.0]
Segment Anything Model (SAM)は、より正確で堅牢で汎用的なツールとして、幅広い脳の抽出とセグメンテーションの応用の可能性を秘めている。
我々はSAMを、様々な画像品質、MR配列、脳の病変が異なる脳領域に影響を及ぼす様々な脳スキャンにおいて、BETと呼ばれる、広く使われている現在の金の標準技術と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:50:52Z) - DeepBrainPrint: A Novel Contrastive Framework for Brain MRI
Re-Identification [2.5855676778881334]
我々はDeepBrainPrintというAIベースのフレームワークを提案し、同じ患者の脳MRIスキャンを検索する。
当社のフレームワークは,3つの主要なイノベーションを伴う,半自己指導型のコントラスト型ディープラーニングアプローチです。
DeepBrainPrintをアルツハイマー病脳画像イニシアチブ(ADNI)のT1強調脳MRIの大規模なデータセットでテストした。
論文 参考訳(メタデータ) (2023-02-25T11:03:16Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。