論文の概要: Emotional Brain State Classification on fMRI Data Using Deep Residual
and Convolutional Networks
- arxiv url: http://arxiv.org/abs/2210.17015v1
- Date: Mon, 31 Oct 2022 02:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:42:51.192351
- Title: Emotional Brain State Classification on fMRI Data Using Deep Residual
and Convolutional Networks
- Title(参考訳): 深部残差・畳み込みネットワークを用いたfMRIデータの感情脳状態分類
- Authors: Maxime Tchibozo, Donggeun Kim, Zijing Wang, Xiaofu He
- Abstract要約: 情緒的脳状態をデコードするための2つの畳み込みに基づくアプローチを開発した。
これらのアプローチは、脳コンピューターインタフェースやリアルタイムfMRIニューロフィードバック研究で使われる可能性がある。
- 参考スコア(独自算出の注目度): 0.8411385346896412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of emotional brain state classification on functional MRI (fMRI)
data is to recognize brain activity patterns related to specific emotion tasks
performed by subjects during an experiment. Distinguishing emotional brain
states from other brain states using fMRI data has proven to be challenging due
to two factors: a difficulty to generate fast yet accurate predictions in short
time frames, and a difficulty to extract emotion features which generalize to
unseen subjects. To address these challenges, we conducted an experiment in
which 22 subjects viewed pictures designed to stimulate either negative,
neutral or rest emotional responses while their brain activity was measured
using fMRI. We then developed two distinct Convolution-based approaches to
decode emotional brain states using only spatial information from single,
minimally pre-processed (slice timing and realignment) fMRI volumes. In our
first approach, we trained a 1D Convolutional Network (84.9% accuracy; chance
level 33%) to classify 3 emotion conditions using One-way Analysis of Variance
(ANOVA) voxel selection combined with hyperalignment. In our second approach,
we trained a 3D ResNet-50 model (78.0% accuracy; chance level 50%) to classify
2 emotion conditions from single 3D fMRI volumes directly. Our Convolutional
and Residual classifiers successfully learned group-level emotion features and
could decode emotion conditions from fMRI volumes in milliseconds. These
approaches could potentially be used in brain computer interfaces and real-time
fMRI neurofeedback research.
- Abstract(参考訳): 機能的MRI(fMRI)データに基づく感情脳状態分類の目的は、被験者が実験中に行う特定の感情タスクに関連する脳活動パターンを認識することである。
fmriデータを用いた感情的脳の状態と他の脳の状態の区別は、短時間のフレームで高速で正確な予測を生成することの困難さと、目に見えない被験者に一般化する感情的特徴を抽出することの難しさという2つの要因によって困難であることが証明されている。
これらの課題に対処するために、22名の被験者が、fMRIを用いて脳活動を測定しながら、負、中、休息の感情反応を刺激するための画像を見る実験を行った。
次に,前処理(スライシングタイミングと再認識)fmriボリュームの空間情報のみを用いて,感情的脳状態をデコードする2つの異なる畳み込み法を開発した。
最初のアプローチでは、1次元畳み込みネットワーク(84.9%の精度、チャンスレベル33%)を訓練し、3つの感情条件を1-way Analysis of Variance (ANOVA) voxel selection with hyperalignmentを用いて分類した。
第2のアプローチでは、3次元fMRIボリュームから直接2つの感情条件を分類するために、3D ResNet-50モデル(精度78.0%、確率レベル50%)を訓練した。
我々の畳み込みと残留の分類器は、グループレベルの感情特徴を学習し、fMRIボリュームからミリ秒で感情条件を復号することに成功した。
これらのアプローチは、脳コンピューターインタフェースやリアルタイムfMRIニューロフィードバック研究で使われる可能性がある。
関連論文リスト
- NeuroBOLT: Resting-state EEG-to-fMRI Synthesis with Multi-dimensional Feature Mapping [9.423808859117122]
我々は,脳内のfMRI活動信号に生の脳波データを変換するためにNeuroBOLT,すなわちNeuro-to-BOLD Transformerを導入する。
実験の結果,NeuroBOLTは一次感覚野,高レベル認知領域,深部皮質下脳領域から観測不能なfMRI信号を効果的に再構成することがわかった。
論文 参考訳(メタデータ) (2024-10-07T02:47:55Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - MindShot: Brain Decoding Framework Using Only One Image [21.53687547774089]
MindShotは、クロスオブジェクトの事前知識を活用することで、効果的に数発のブレインデコーディングを実現するために提案されている。
新しい被験者と事前訓練された個人は、同じ意味クラスのイメージのみを見る必要があり、モデルの適用性を大幅に拡大する。
論文 参考訳(メタデータ) (2024-05-24T07:07:06Z) - Brain3D: Generating 3D Objects from fMRI [76.41771117405973]
被験者のfMRIデータを入力として利用する新しい3Dオブジェクト表現学習手法であるBrain3Dを設計する。
我々は,人間の視覚系の各領域の異なる機能的特徴を,我々のモデルが捉えていることを示す。
予備評価は、Brain3Dがシミュレーションシナリオで障害した脳領域を正常に識別できることを示唆している。
論文 参考訳(メタデータ) (2024-05-24T06:06:11Z) - Animate Your Thoughts: Decoupled Reconstruction of Dynamic Natural Vision from Slow Brain Activity [13.291585611137355]
脳活動から人間のダイナミックビジョンを再構築することは、科学的に重要な課題である。
本稿では,3つの公開データセット上での最先端性能を実現する2段階モデルであるMind-Animatorを提案する。
我々は、再構成された映像力学は、生成モデルの幻覚ではなく、fMRIから導出されるものであることを裏付ける。
論文 参考訳(メタデータ) (2024-05-06T08:56:41Z) - BrainODE: Dynamic Brain Signal Analysis via Graph-Aided Neural Ordinary Differential Equations [67.79256149583108]
本稿では,脳波を連続的にモデル化するBrainODEというモデルを提案する。
遅延初期値とニューラルODE関数を不規則な時系列から学習することにより、BrainODEは任意の時点の脳信号を効果的に再構築する。
論文 参考訳(メタデータ) (2024-04-30T10:53:30Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Brain-ID: Learning Contrast-agnostic Anatomical Representations for
Brain Imaging [11.06907516321673]
脳画像のための解剖学的表現学習モデルであるBrain-IDを導入する。
提案された"Mild-to-Severe"イントラオブジェクト生成により、Brain-IDは被験者固有の脳解剖に対して堅牢である。
本稿では,物体内および物体間ロバスト性を評価するための新しい指標を提案し,その性能を4つの下流アプリケーションで評価する。
論文 参考訳(メタデータ) (2023-11-28T16:16:10Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain
Activities [31.448924808940284]
2相fMRI表現学習フレームワークを提案する。
第1フェーズでは、double-contrastive Mask Auto-encoderを提案してfMRI機能学習者を事前訓練し、識別表現を学習する。
第2フェーズでは、イメージオートエンコーダからのガイダンスで視覚的再構成に最も有用な神経活性化パターンに参加するように、特徴学習者に調整する。
論文 参考訳(メタデータ) (2023-05-26T19:16:23Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。