論文の概要: Rest2Visual: Predicting Visually Evoked fMRI from Resting-State Scans
- arxiv url: http://arxiv.org/abs/2509.13612v1
- Date: Wed, 17 Sep 2025 01:08:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.678656
- Title: Rest2Visual: Predicting Visually Evoked fMRI from Resting-State Scans
- Title(参考訳): Rest2Visual: 静止状態のスキャンから視覚的に誘発されたfMRIを予測する
- Authors: Chuyang Zhou, Ziao Ji, Daochang Liu, Dongang Wang, Chenyu Wang, Chang Xu,
- Abstract要約: 本研究では、静止状態入力と2次元視覚刺激から視覚誘発されたfMRI(ve-fMRI)を予測する条件生成モデルであるRest2Visualを紹介する。
この結果から,自発神経活動の個別化が刺激に適応した表現に変換できることが示唆された。
- 参考スコア(独自算出の注目度): 30.743554598059692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how spontaneous brain activity relates to stimulus-driven neural responses is a fundamental challenge in cognitive neuroscience. While task-based functional magnetic resonance imaging (fMRI) captures localized stimulus-evoked brain activation, its acquisition is costly, time-consuming, and difficult to scale across populations. In contrast, resting-state fMRI (rs-fMRI) is task-free and abundant, but lacks direct interpretability. We introduce Rest2Visual, a conditional generative model that predicts visually evoked fMRI (ve-fMRI) from resting-state input and 2D visual stimuli. It follows a volumetric encoder--decoder design, where multiscale 3D features from rs-fMRI are modulated by image embeddings via adaptive normalization, enabling spatially accurate, stimulus-specific activation synthesis. To enable model training, we construct a large-scale triplet dataset from the Natural Scenes Dataset (NSD), aligning each rs-fMRI volume with stimulus images and their corresponding ve-fMRI activation maps. Quantitative evaluation shows that the predicted activations closely match ground truth across standard similarity and representational metrics, and support successful image reconstruction in downstream decoding. Notably, the predicted maps preserve subject-specific structure, demonstrating the model's capacity to generate individualized functional surrogates. Our results provide compelling evidence that individualized spontaneous neural activity can be transformed into stimulus-aligned representations, opening new avenues for scalable, task-free functional brain modeling.
- Abstract(参考訳): 脳活動が刺激によって引き起こされる神経反応とどのように関連するかを理解することは、認知神経科学の基本的な課題である。
タスクベースの機能的磁気共鳴イメージング(fMRI)は局所的な刺激によって誘発される脳の活性化を捉えるが、その取得は費用がかかり、時間もかかり、個体群をまたがるスケールが困難である。
対照的に、静止状態fMRI(rs-fMRI)はタスクフリーで豊富であるが、直接解釈性に欠ける。
本稿では,静止状態入力と2次元視覚刺激から視覚誘発されたfMRI(ve-fMRI)を予測する条件生成モデルであるRest2Visualを紹介する。
ボリュームエンコーダデコーダの設計に従っており、rs-fMRIのマルチスケール3次元特徴は適応正規化による画像埋め込みによって変調され、空間的正確で刺激特異的な活性化合成を可能にする。
モデルトレーニングを実現するため,Nano Scenes Dataset (NSD) から大規模トリプルトデータセットを構築し,各rs-fMRIボリュームを刺激画像と対応するve-fMRIアクティベーションマップに整合させる。
定量的評価により、予測されたアクティベーションは標準的類似度や表現的指標と密接に一致し、下流復号における画像再構成の成功をサポートすることが示された。
特に、予測された地図は対象固有の構造を保持し、個々の機能的サロゲートを生成するためのモデルの能力を示す。
その結果,自律神経活動の個別化が刺激に適応した表現に変換され,スケーラブルでタスクフリーな機能的脳モデリングのための新たな道が開かれたことが示唆された。
関連論文リスト
- SynBrain: Enhancing Visual-to-fMRI Synthesis via Probabilistic Representation Learning [50.69448058071441]
視覚刺激が皮質反応にどのように変換されるかを理解することは、計算神経科学の基本的な課題である。
視覚的意味論から神経反応への変換をシミュレートする生成フレームワークであるSynBrainを提案する。
そこで本研究では,SynBrainが主観的視覚-fMRI符号化性能において最先端の手法を超越していることを示す。
論文 参考訳(メタデータ) (2025-08-14T03:01:05Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - NeuroCine: Decoding Vivid Video Sequences from Human Brain Activties [23.893490180665996]
本稿では,fMRIデータを復号化するための新たな二相フレームワークであるNeuroCineを紹介する。
公開されているfMRIデータセットでテストした結果,有望な結果が得られた。
このモデルが既存の脳構造や機能と一致し,その生物学的妥当性と解釈可能性を示すことが示唆された。
論文 参考訳(メタデータ) (2024-02-02T17:34:25Z) - Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain
Activities [31.448924808940284]
2相fMRI表現学習フレームワークを提案する。
第1フェーズでは、double-contrastive Mask Auto-encoderを提案してfMRI機能学習者を事前訓練し、識別表現を学習する。
第2フェーズでは、イメージオートエンコーダからのガイダンスで視覚的再構成に最も有用な神経活性化パターンに参加するように、特徴学習者に調整する。
論文 参考訳(メタデータ) (2023-05-26T19:16:23Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Mind Reader: Reconstructing complex images from brain activities [16.78619734818198]
我々はfMRI(機能的磁気共鳴画像)信号から複雑な画像刺激を再構成することに集中する。
単一の物体や単純な形状で画像を再構成する従来の研究とは異なり、本研究は意味論に富んだイメージ刺激を再構成することを目的としている。
脳の信号を直接画像に翻訳するよりも、追加のテキストモダリティを組み込むことは、再建問題にとって有益である。
論文 参考訳(メタデータ) (2022-09-30T06:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。