論文の概要: A Fractal Approach to Characterize Emotions in Audio and Visual Domain:
A Study on Cross-Modal Interaction
- arxiv url: http://arxiv.org/abs/2102.06038v1
- Date: Thu, 11 Feb 2021 14:30:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 19:01:23.247833
- Title: A Fractal Approach to Characterize Emotions in Audio and Visual Domain:
A Study on Cross-Modal Interaction
- Title(参考訳): 音声と視覚領域における感情を特徴付けるフラクタルアプローチ : クロスモーダル相互作用に関する研究
- Authors: Sayan Nag, Uddalok Sarkar, Shankha Sanyal, Archi Banerjee, Souparno
Roy, Samir Karmakar, Ranjan Sengupta and Dipak Ghosh
- Abstract要約: 本研究は,聴覚刺激と視覚刺激の両方を介する横断的シナリオにおける情緒的覚醒について検討する。
これは、感情的な覚醒をクロスモーダルなシナリオに分類できる新しいアルゴリズムを提案する最初の研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is already known that both auditory and visual stimulus is able to convey
emotions in human mind to different extent. The strength or intensity of the
emotional arousal vary depending on the type of stimulus chosen. In this study,
we try to investigate the emotional arousal in a cross-modal scenario involving
both auditory and visual stimulus while studying their source characteristics.
A robust fractal analytic technique called Detrended Fluctuation Analysis (DFA)
and its 2D analogue has been used to characterize three (3) standardized audio
and video signals quantifying their scaling exponent corresponding to positive
and negative valence. It was found that there is significant difference in
scaling exponents corresponding to the two different modalities. Detrended
Cross Correlation Analysis (DCCA) has also been applied to decipher degree of
cross-correlation among the individual audio and visual stimulus. This is the
first of its kind study which proposes a novel algorithm with which emotional
arousal can be classified in cross-modal scenario using only the source audio
and visual signals while also attempting a correlation between them.
- Abstract(参考訳): 聴覚刺激と視覚刺激の両方が人間の心の感情を異なる程度に伝達できることは、すでに知られている。
感情刺激の強さや強さは、選択された刺激の種類によって異なる。
本研究では,聴覚刺激と視覚刺激の両方を伴うクロスモーダルシナリオにおける情緒覚醒について,音源特性を考察しながら検討する。
Detrended Fluctuation Analysis (DFA)とその2Dアナログと呼ばれる頑健なフラクタル解析技術は、正および負の原子価に対応するスケーリング指数を定量化する3つの標準オーディオおよびビデオ信号の特徴付けに用いられている。
2つの異なるモダリティに対応するスケーリング指数に有意な差があることが判明した。
Detrended Cross Correlation Analysis (DCCA)は、個々のオーディオおよび視覚刺激間の相互相関の解読度にも適用されている。
本研究は, 音源音声と視覚信号のみを用いて感情刺激をクロスモーダルシナリオで分類し, 相互相関を試みる, 新たなアルゴリズムを提案する最初の研究である。
関連論文リスト
- Learning Frame-Wise Emotion Intensity for Audio-Driven Talking-Head Generation [59.81482518924723]
そこで本研究では,発話頭生成のための微妙なシフトを捕捉し,生成する手法を提案する。
我々は,強度レベルを正確に制御し,様々な感情を生成できる話頭フレームワークを開発した。
提案手法の有効性を実験・解析により検証した。
論文 参考訳(メタデータ) (2024-09-29T01:02:01Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Exploring the dynamic interplay of cognitive load and emotional arousal
by using multimodal measurements: Correlation of pupil diameter and emotional
arousal in emotionally engaging tasks [0.0]
本研究の目的は,認知作業負荷の指標としての瞳孔径と,感情刺激の指標としての深層学習によるFACTの相関について検討することである。
28名の被験者が3つの認知的要求と感情的な日常的道徳的ジレンマに取り組み,視線追跡と感情認識データを収集した。
その結果,感情的覚醒と瞳孔径のデータストリームの間には負の相関と統計的に有意な相関が認められた。
論文 参考訳(メタデータ) (2024-03-01T08:49:17Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Enhancing Affective Representations of Music-Induced EEG through
Multimodal Supervision and latent Domain Adaptation [34.726185927120355]
脳波の重み付けとして音楽信号を用い,その意味的対応を共通の表現空間に投影することを目的としている。
我々は、LSTMに基づくアテンションモデルと、音楽タギングのための事前訓練されたモデルを組み合わせたバイモーダル・フレームワークと、その2つのモードの分布を整列するリバース・ドメイン・ディミネータを併用して、バイモーダル・フレームワークを利用する。
脳波入力クエリに関連音楽サンプルを提供することにより、モダリティのいずれからも、間接的に、教師付き予測を行うことで、感情認識に利用することができる。
論文 参考訳(メタデータ) (2022-02-20T07:32:12Z) - Progressive Graph Convolution Network for EEG Emotion Recognition [35.08010382523394]
神経科学領域の研究により、感情パターンと脳機能領域の関係が明らかになった。
脳波による感情認識では、きめ細かい感情の間には、きめ細かい感情の間により明確な境界が存在することが観察できる。
脳波の感情信号に特有の特徴を捉えるためのプログレッシブグラフ畳み込みネットワーク(PGCN)を提案する。
論文 参考訳(メタデータ) (2021-12-14T03:30:13Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Investigations on Audiovisual Emotion Recognition in Noisy Conditions [43.40644186593322]
本稿では,異なる信号対雑音比で重畳ノイズを持つ2つの感情データセットについて検討する。
その結果、ノイズの多いデータにクリーンオーディオで訓練されたモデルを適用すると、パフォーマンスが大幅に低下します。
論文 参考訳(メタデータ) (2021-03-02T17:45:16Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Detecting Emotion Primitives from Speech and their use in discerning
Categorical Emotions [16.886826928295203]
感情は人間同士のコミュニケーションにおいて重要な役割を担い、幸福やフラストレーション、誠実さといった感情を伝えることができる。
この研究は、感情プリミティブが、幸福、嫌悪、軽蔑、怒り、驚きといったカテゴリー的感情を中性的なスピーチから検出する方法について研究した。
以上の結果から, 覚醒と支配は, 感情のより優れた検出方法であった。
論文 参考訳(メタデータ) (2020-01-31T03:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。