論文の概要: Brain-ID: Learning Robust Feature Representations for Brain Imaging
- arxiv url: http://arxiv.org/abs/2311.16914v1
- Date: Tue, 28 Nov 2023 16:16:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:38:54.605404
- Title: Brain-ID: Learning Robust Feature Representations for Brain Imaging
- Title(参考訳): Brain-ID:脳イメージングのためのロバストな特徴表現の学習
- Authors: Peirong Liu and Oula Puonti and Xiaoling Hu and Daniel C. Alexander
and Juan Eugenio Iglesias
- Abstract要約: 脳画像のための堅牢な特徴表現学習戦略であるBrain-IDを導入する。
脳IDはコントラスト非依存であり、取得した画像の外観に関わらず、各被験者の脳解剖に対して堅牢である。
我々は、Brain-ID機能の堅牢性を検証し、様々なダウンストリームアプリケーションでそれらの性能を評価する。
- 参考スコア(独自算出の注目度): 12.332024255350756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent learning-based approaches have made astonishing advances in calibrated
medical imaging like computerized tomography, yet they struggle to generalize
in uncalibrated modalities -- notoriously magnetic resonance imaging (MRI),
where performance is highly sensitive to the differences in MR contrast,
resolution, and orientation between the training and testing data. This
prevents broad applicability to the diverse clinical acquisition protocols in
the real world. We introduce Brain-ID, a robust feature representation learning
strategy for brain imaging, which is contrast-agnostic, and robust to the brain
anatomy of each subject regardless of the appearance of acquired images (i.e.,
deformation, contrast, resolution, orientation, artifacts, etc). Brain-ID is
trained entirely on synthetic data, and easily adapts to downstream tasks with
our proposed simple one-layer solution. We validate the robustness of Brain-ID
features, and evaluate their performance in a variety of downstream
applications, including both contrast-independent (anatomy
reconstruction/contrast synthesis, brain segmentation), and contrast-dependent
(super-resolution, bias field estimation) tasks. Extensive experiments on 6
public datasets demonstrate that Brain-ID achieves state-of-the-art performance
in all tasks, and more importantly, preserves its performance when only limited
training data is available.
- Abstract(参考訳): 近年の学習ベースのアプローチは、コンピュータトモグラフィーのような校正医療画像に驚くべき進歩をもたらしたが、訓練データとテストデータの間のMRコントラスト、解像度、配向の差に非常に敏感なMRI(MRI)の非校正モダリティの一般化に苦慮している。
これにより、現実世界における多様な臨床試験プロトコルへの広範な適用が防止される。
得られた画像(変形、コントラスト、解像度、方向、アーティファクトなど)の出現に関係なく、各被験者の脳解剖学に頑健な、コントラスト非依存な脳画像のためのロバストな特徴表現学習戦略であるbrain-idを導入する。
Brain-IDは完全に合成データに基づいて訓練されており、提案した単純な1層ソリューションで下流タスクに容易に適応できる。
脳-ID特徴のロバスト性を検証し、コントラスト非依存(解剖学的再構成/コントラスト合成、脳セグメント化)とコントラスト依存(超分解能、バイアス場推定)の両方を含む様々な下流アプリケーションでの性能を評価する。
6つの公開データセットに関する大規模な実験は、Brain-IDがすべてのタスクで最先端のパフォーマンスを達成することを実証している。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - BrainSegFounder: Towards 3D Foundation Models for Neuroimage Segmentation [6.5388528484686885]
本研究は,医療基盤モデルの創出に向けた新しいアプローチを紹介する。
本稿では,視覚変換器を用いた2段階事前学習手法を提案する。
BrainFounderは、これまでの勝利ソリューションの成果を上回る、大幅なパフォーマンス向上を実演している。
論文 参考訳(メタデータ) (2024-06-14T19:49:45Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Aligning brain functions boosts the decoding of visual semantics in
novel subjects [3.226564454654026]
脳の反応をビデオや静止画像に合わせることで脳の復号化を促進することを提案する。
提案手法はオブジェクト外デコード性能を最大75%向上させる。
また、テスト対象者に対して100分未満のデータが得られる場合、古典的な単一オブジェクトアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-12-11T15:55:20Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - SAM vs BET: A Comparative Study for Brain Extraction and Segmentation of
Magnetic Resonance Images using Deep Learning [0.0]
Segment Anything Model (SAM)は、より正確で堅牢で汎用的なツールとして、幅広い脳の抽出とセグメンテーションの応用の可能性を秘めている。
我々はSAMを、様々な画像品質、MR配列、脳の病変が異なる脳領域に影響を及ぼす様々な脳スキャンにおいて、BETと呼ばれる、広く使われている現在の金の標準技術と比較した。
論文 参考訳(メタデータ) (2023-04-10T17:50:52Z) - DeepBrainPrint: A Novel Contrastive Framework for Brain MRI
Re-Identification [2.5855676778881334]
我々はDeepBrainPrintというAIベースのフレームワークを提案し、同じ患者の脳MRIスキャンを検索する。
当社のフレームワークは,3つの主要なイノベーションを伴う,半自己指導型のコントラスト型ディープラーニングアプローチです。
DeepBrainPrintをアルツハイマー病脳画像イニシアチブ(ADNI)のT1強調脳MRIの大規模なデータセットでテストした。
論文 参考訳(メタデータ) (2023-02-25T11:03:16Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。