論文の概要: ZEBRA: Towards Zero-Shot Cross-Subject Generalization for Universal Brain Visual Decoding
- arxiv url: http://arxiv.org/abs/2510.27128v1
- Date: Fri, 31 Oct 2025 03:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.960984
- Title: ZEBRA: Towards Zero-Shot Cross-Subject Generalization for Universal Brain Visual Decoding
- Title(参考訳): ZEBRA:Universal Brain Visual Decodingのためのゼロショットクロスオブジェクト一般化を目指して
- Authors: Haonan Wang, Jingyu Lu, Hongrui Li, Xiaomeng Li,
- Abstract要約: ZEBRAは、最初のゼロショット脳視覚デコードフレームワークである。
ZEBRAは、fMRI表現を主観的および意味論的コンポーネントに分解できるという重要な洞察に基づいて構築されている。
私たちの仕事は、普遍的なニューラルデコーディングに向けたスケーラブルで実践的なステップを表しています。
- 参考スコア(独自算出の注目度): 26.255764454149652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in neural decoding have enabled the reconstruction of visual experiences from brain activity, positioning fMRI-to-image reconstruction as a promising bridge between neuroscience and computer vision. However, current methods predominantly rely on subject-specific models or require subject-specific fine-tuning, limiting their scalability and real-world applicability. In this work, we introduce ZEBRA, the first zero-shot brain visual decoding framework that eliminates the need for subject-specific adaptation. ZEBRA is built on the key insight that fMRI representations can be decomposed into subject-related and semantic-related components. By leveraging adversarial training, our method explicitly disentangles these components to isolate subject-invariant, semantic-specific representations. This disentanglement allows ZEBRA to generalize to unseen subjects without any additional fMRI data or retraining. Extensive experiments show that ZEBRA significantly outperforms zero-shot baselines and achieves performance comparable to fully finetuned models on several metrics. Our work represents a scalable and practical step toward universal neural decoding. Code and model weights are available at: https://github.com/xmed-lab/ZEBRA.
- Abstract(参考訳): ニューラルデコーディングの最近の進歩は、脳活動からの視覚体験の再構築を可能にし、fMRI-to-image再構成を神経科学とコンピュータビジョンの間の有望な橋として位置づけている。
しかし、現在の手法は、主に主題固有のモデルに依存するか、主題固有の微調整を必要とし、そのスケーラビリティと現実の応用性を制限する。
本研究では、ZEBRA(ZEBRA)を導入した。ZEBRAは、被写体固有の適応を必要としない最初のゼロショット脳視覚デコーディングフレームワークである。
ZEBRAは、fMRI表現を主観的および意味論的コンポーネントに分解できるという重要な洞察に基づいて構築されている。
本手法は,主観的不変な意味的特有表現を分離するために,これらの成分を明示的にアンタングル化する。
この絡み合いにより、ZEBRAは、追加のfMRIデータや再トレーニングなしに、見えない対象に一般化することができる。
大規模な実験により、ZEBRAはゼロショットベースラインを著しく上回り、複数のメトリクスで完全に微調整されたモデルに匹敵する性能を達成している。
私たちの仕事は、普遍的なニューラルデコーディングに向けたスケーラブルで実践的なステップを表しています。
コードとモデルの重み付けは、https://github.com/xmed-lab/ZEBRA.comで入手できる。
関連論文リスト
- AdaBrain-Bench: Benchmarking Brain Foundation Models for Brain-Computer Interface Applications [52.91583053243446]
非侵襲的なBrain-Computer Interface(BCI)は、人間の脳を外部デバイスに接続する安全でアクセスしやすい手段を提供する。
近年,自己指導型プレトレーニングの導入により,非侵襲的BCI研究の展望が変化しつつある。
AdaBrain-Benchは、広範囲にわたる非侵襲的BCIタスクにおける脳基盤モデルを評価するための標準化されたベンチマークである。
論文 参考訳(メタデータ) (2025-07-14T03:37:41Z) - Meta-Learning an In-Context Transformer Model of Human Higher Visual Cortex [5.283925904540581]
BraInCoRLは、いくつかの例からボクセルワイドな神経応答を予測するために、コンテキスト内学習を使用している。
我々は、BraInCoRLが、既存のボクセルワイドエンコーダ設計を低データ方式で一貫して上回っていることを示す。
BraInCoRLは、意味的に関連する刺激に参加することによって、高次視覚野における神経信号のより良い解釈性を促進する。
論文 参考訳(メタデータ) (2025-05-21T17:59:41Z) - UniBrain: A Unified Model for Cross-Subject Brain Decoding [22.49964298783508]
被験者固有のパラメータを必要としない統一脳復号モデルUniBrainを提案する。
提案手法は, 可変fMRI信号長を扱うグループベース抽出器, クロスオブジェクトの共通点を捕捉する相互支援組込み器, 被写体不変特徴を抽出するバイレベル特徴アライメント方式を含む。
我々は、UniBrainを脳復号ベンチマークで検証し、パラメータが極端に少ない現在の最先端の主題特化モデルに匹敵する性能を実現した。
論文 参考訳(メタデータ) (2024-12-27T07:03:47Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - UMBRAE: Unified Multimodal Brain Decoding [43.6339793925953]
脳信号のマルチモーダルデコードであるUMBRAEを提案する。
マルチモーダル脳アライメントのための効率的なユニバーサル脳エンコーダを提案する。
また,対象物固有の特徴を共通の特徴空間にマッピングするクロスオブジェクトトレーニング戦略も導入する。
論文 参考訳(メタデータ) (2024-04-10T17:59:20Z) - BrainCLIP: Bridging Brain and Visual-Linguistic Representation Via CLIP
for Generic Natural Visual Stimulus Decoding [51.911473457195555]
BrainCLIPはタスクに依存しないfMRIベースの脳復号モデルである。
脳の活動、画像、およびテキストの間のモダリティギャップを埋める。
BrainCLIPは、高い意味的忠実度で視覚刺激を再構築することができる。
論文 参考訳(メタデータ) (2023-02-25T03:28:54Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。