論文の概要: Emotional Brain State Classification on fMRI Data Using Deep Residual
and Convolutional Networks
- arxiv url: http://arxiv.org/abs/2210.17015v1
- Date: Mon, 31 Oct 2022 02:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:42:51.192351
- Title: Emotional Brain State Classification on fMRI Data Using Deep Residual
and Convolutional Networks
- Title(参考訳): 深部残差・畳み込みネットワークを用いたfMRIデータの感情脳状態分類
- Authors: Maxime Tchibozo, Donggeun Kim, Zijing Wang, Xiaofu He
- Abstract要約: 情緒的脳状態をデコードするための2つの畳み込みに基づくアプローチを開発した。
これらのアプローチは、脳コンピューターインタフェースやリアルタイムfMRIニューロフィードバック研究で使われる可能性がある。
- 参考スコア(独自算出の注目度): 0.8411385346896412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of emotional brain state classification on functional MRI (fMRI)
data is to recognize brain activity patterns related to specific emotion tasks
performed by subjects during an experiment. Distinguishing emotional brain
states from other brain states using fMRI data has proven to be challenging due
to two factors: a difficulty to generate fast yet accurate predictions in short
time frames, and a difficulty to extract emotion features which generalize to
unseen subjects. To address these challenges, we conducted an experiment in
which 22 subjects viewed pictures designed to stimulate either negative,
neutral or rest emotional responses while their brain activity was measured
using fMRI. We then developed two distinct Convolution-based approaches to
decode emotional brain states using only spatial information from single,
minimally pre-processed (slice timing and realignment) fMRI volumes. In our
first approach, we trained a 1D Convolutional Network (84.9% accuracy; chance
level 33%) to classify 3 emotion conditions using One-way Analysis of Variance
(ANOVA) voxel selection combined with hyperalignment. In our second approach,
we trained a 3D ResNet-50 model (78.0% accuracy; chance level 50%) to classify
2 emotion conditions from single 3D fMRI volumes directly. Our Convolutional
and Residual classifiers successfully learned group-level emotion features and
could decode emotion conditions from fMRI volumes in milliseconds. These
approaches could potentially be used in brain computer interfaces and real-time
fMRI neurofeedback research.
- Abstract(参考訳): 機能的MRI(fMRI)データに基づく感情脳状態分類の目的は、被験者が実験中に行う特定の感情タスクに関連する脳活動パターンを認識することである。
fmriデータを用いた感情的脳の状態と他の脳の状態の区別は、短時間のフレームで高速で正確な予測を生成することの困難さと、目に見えない被験者に一般化する感情的特徴を抽出することの難しさという2つの要因によって困難であることが証明されている。
これらの課題に対処するために、22名の被験者が、fMRIを用いて脳活動を測定しながら、負、中、休息の感情反応を刺激するための画像を見る実験を行った。
次に,前処理(スライシングタイミングと再認識)fmriボリュームの空間情報のみを用いて,感情的脳状態をデコードする2つの異なる畳み込み法を開発した。
最初のアプローチでは、1次元畳み込みネットワーク(84.9%の精度、チャンスレベル33%)を訓練し、3つの感情条件を1-way Analysis of Variance (ANOVA) voxel selection with hyperalignmentを用いて分類した。
第2のアプローチでは、3次元fMRIボリュームから直接2つの感情条件を分類するために、3D ResNet-50モデル(精度78.0%、確率レベル50%)を訓練した。
我々の畳み込みと残留の分類器は、グループレベルの感情特徴を学習し、fMRIボリュームからミリ秒で感情条件を復号することに成功した。
これらのアプローチは、脳コンピューターインタフェースやリアルタイムfMRIニューロフィードバック研究で使われる可能性がある。
関連論文リスト
- Brain-ID: Learning Contrast-agnostic Anatomical Representations for
Brain Imaging [11.06907516321673]
脳画像のための解剖学的表現学習モデルであるBrain-IDを導入する。
提案された"Mild-to-Severe"イントラオブジェクト生成により、Brain-IDは被験者固有の脳解剖に対して堅牢である。
本稿では,物体内および物体間ロバスト性を評価するための新しい指標を提案し,その性能を4つの下流アプリケーションで評価する。
論文 参考訳(メタデータ) (2023-11-28T16:16:10Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain
Activities [31.448924808940284]
2相fMRI表現学習フレームワークを提案する。
第1フェーズでは、double-contrastive Mask Auto-encoderを提案してfMRI機能学習者を事前訓練し、識別表現を学習する。
第2フェーズでは、イメージオートエンコーダからのガイダンスで視覚的再構成に最も有用な神経活性化パターンに参加するように、特徴学習者に調整する。
論文 参考訳(メタデータ) (2023-05-26T19:16:23Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Video4MRI: An Empirical Study on Brain Magnetic Resonance Image
Analytics with CNN-based Video Classification Frameworks [60.42012344842292]
3次元CNNモデルが磁気共鳴画像(MRI)解析の分野を支配している。
本稿では,アルツハイマー病とパーキンソン病の認識の4つのデータセットを実験に利用した。
効率の面では、ビデオフレームワークは3D-CNNモデルよりも5%から11%、トレーニング可能なパラメータは50%から66%少ない。
論文 参考訳(メタデータ) (2023-02-24T15:26:31Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - BrainFormer: A Hybrid CNN-Transformer Model for Brain fMRI Data
Classification [31.83866719445596]
BrainFormerは、単一のfMRIボリュームを持つ脳疾患分類のための一般的なハイブリッドトランスフォーマーアーキテクチャである。
BrainFormerは、各voxel内のローカルキューを3D畳み込みでモデル化することによって構築される。
我々は、ABIDE、ADNI、MPILMBB、ADHD-200、ECHOを含む5つの独立して取得したデータセット上でBrainFormerを評価する。
論文 参考訳(メタデータ) (2022-08-05T07:54:10Z) - Deep Representations for Time-varying Brain Datasets [4.129225533930966]
本稿では、領域マップされたfMRIシーケンスと構造接続性の両方を入力として組み込んだ効率的なグラフニューラルネットワークモデルを構築する。
サンプルレベルの適応的隣接行列を学習することで、潜伏する脳のダイナミクスのよい表現を見つけ出す。
これらのモジュールは容易に適応でき、神経科学領域以外の用途にも有用である可能性がある。
論文 参考訳(メタデータ) (2022-05-23T21:57:31Z) - 3-Dimensional Deep Learning with Spatial Erasing for Unsupervised
Anomaly Segmentation in Brain MRI [55.97060983868787]
我々は,MRIボリュームと空間消去を組み合わせた空間文脈の増大が,教師なしの異常セグメンテーション性能の向上に繋がるかどうかを検討する。
本稿では,2次元変分オートエンコーダ(VAE)と3次元の相違点を比較し,3次元入力消去を提案し,データセットサイズが性能に与える影響を体系的に検討する。
入力消去による最高の3D VAEは、平均DICEスコアが31.40%となり、2D VAEは25.76%となった。
論文 参考訳(メタデータ) (2021-09-14T09:17:27Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z) - Mapping individual differences in cortical architecture using multi-view
representation learning [0.0]
本稿では,タスクfMRIと安静状態fMRIで計測されたアクティベーションと接続性に基づく情報を組み合わせて,新しい機械学習手法を提案する。
マルチビューディープ・オートエンコーダは、2つのfMRIモダリティを、患者を特徴づけるスカラースコアを推測するために予測モデルが訓練されたジョイント表現空間に融合させるように設計されている。
論文 参考訳(メタデータ) (2020-04-01T09:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。