論文の概要: Variation is the Norm: Brain State Dynamics Evoked By Emotional Video
Clips
- arxiv url: http://arxiv.org/abs/2110.12392v1
- Date: Sun, 24 Oct 2021 08:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:27:51.863674
- Title: Variation is the Norm: Brain State Dynamics Evoked By Emotional Video
Clips
- Title(参考訳): 変化は普通だ: 感情的なビデオクリップによって誘発される脳の状態ダイナミクス
- Authors: Ashutosh Singh, Christiana Westlin, Hedwig Eisenbarth, Elizabeth A.
Reynolds Losin, Jessica R. Andrews-Hanna, Tor D. Wager, Ajay B. Satpute, Lisa
Feldman Barrett, Dana H. Brooks, Deniz Erdogmus
- Abstract要約: 特定の感情カテゴリーを誘発するビデオクリップを観ている間、感情経験中の一貫性よりも変化について検討した。
血液酸素量依存型(BOLD)信号パターンにおける状態遷移の間において,脳の状態を異なる状態占有期間として特徴づけた。
我々は、同じビデオを見ている個人間で、状態占有確率分布のかなりのばらつきを発見し、脳が感情経験の相関関係にあるという仮説を支持した。
- 参考スコア(独自算出の注目度): 8.30138681930207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the last several decades, emotion research has attempted to identify a
"biomarker" or consistent pattern of brain activity to characterize a single
category of emotion (e.g., fear) that will remain consistent across all
instances of that category, regardless of individual and context. In this
study, we investigated variation rather than consistency during emotional
experiences while people watched video clips chosen to evoke instances of
specific emotion categories. Specifically, we developed a sequential
probabilistic approach to model the temporal dynamics in a participant's brain
activity during video viewing. We characterized brain states during these clips
as distinct state occupancy periods between state transitions in blood oxygen
level dependent (BOLD) signal patterns. We found substantial variation in the
state occupancy probability distributions across individuals watching the same
video, supporting the hypothesis that when it comes to the brain correlates of
emotional experience, variation may indeed be the norm.
- Abstract(参考訳): 過去数十年間、感情研究は、個人や文脈に関わらず、そのカテゴリーのすべての例に一貫している単一の感情のカテゴリ(例えば恐怖)を特徴付けるために、"バイオマーカー"または一貫した脳活動パターンを特定しようと試みてきた。
本研究では,特定の感情カテゴリのインスタンスを誘発するビデオクリップを視聴する間,感情経験の一貫性よりも変化について検討した。
具体的には,映像視聴時の脳活動の時間的ダイナミクスをモデル化する逐次確率論的手法を開発した。
血液酸素量依存性(BOLD)信号パターンにおける状態遷移の異なる状態占有期間として,脳の状態を特徴づけた。
我々は、同じビデオを見ている個人間で、状態占有確率分布のかなりのばらつきを発見し、脳が感情経験の相関関係にあるという仮説を支持した。
関連論文リスト
- Study of Emotion Concept Formation by Integrating Vision, Physiology, and Word Information using Multilayered Multimodal Latent Dirichlet Allocation [0.0]
構築された感情の理論は、近年の感情研究で一般的になっている。
感情概念は過去の経験を知識として記憶し、獲得した情報から観測されていない情報を予測することができる。
本研究では,構成的感情理論の観点から構成主義的アプローチを用いて感情概念の形成をモデル化する。
論文 参考訳(メタデータ) (2024-04-12T07:34:46Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Attention-based Region of Interest (ROI) Detection for Speech Emotion
Recognition [4.610756199751138]
本研究では,深部脳神経回路網における注意機構を用いて,人間の感情的音声/ビデオにおいてより感情的に有意な関心領域(ROI)を検出することを提案する。
6つの基本的な人間の感情を認識する多クラス分類タスクにおいて,提案した注目ネットワークと最先端のLSTMモデルの性能を比較した。
論文 参考訳(メタデータ) (2022-03-03T22:01:48Z) - Emotions as abstract evaluation criteria in biological and artificial
intelligences [0.0]
機能レベルで感情を模倣するフレームワークを提案する。
感情安定度(TAES)による時間割当に基づいて、感情を抽象的な基準として実装する。
エージェントの長期的なゴールは、個々のタスクを選択する頻度を最適化することで、キャラクタと経験を一致させることである。
論文 参考訳(メタデータ) (2021-11-30T10:49:04Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - A Fractal Approach to Characterize Emotions in Audio and Visual Domain:
A Study on Cross-Modal Interaction [0.0]
本研究は,聴覚刺激と視覚刺激の両方を介する横断的シナリオにおける情緒的覚醒について検討する。
これは、感情的な覚醒をクロスモーダルなシナリオに分類できる新しいアルゴリズムを提案する最初の研究である。
論文 参考訳(メタデータ) (2021-02-11T14:30:22Z) - A Multi-Componential Approach to Emotion Recognition and the Effect of
Personality [0.0]
本稿では,映画視聴中に引き起こされた感情体験を特徴付けるために,データ駆動型アプローチによる構成的枠組みを適用した。
その結果、様々な感情の違いは、数次元(少なくとも6次元)で捉えられることが示唆された。
その結果、限定的な記述子数を持つ成分モデルでは、経験的な離散的感情のレベルを予測できることがわかった。
論文 参考訳(メタデータ) (2020-10-22T01:27:23Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。