論文の概要: Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition
- arxiv url: http://arxiv.org/abs/2104.01978v1
- Date: Mon, 5 Apr 2021 15:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:25:01.653419
- Title: Acted vs. Improvised: Domain Adaptation for Elicitation Approaches in
Audio-Visual Emotion Recognition
- Title(参考訳): Acted vs. Improved: Domain Adaptation for Elicitation Approachs in Audio-Visual Emotion Recognition
- Authors: Haoqi Li, Yelin Kim, Cheng-Hao Kuo, Shrikanth Narayanan
- Abstract要約: 一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
本研究では,感情誘発アプローチをドメイン知識とみなし,感情発話におけるドメイン伝達学習技術を探求する。
- 参考スコア(独自算出の注目度): 29.916609743097215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Key challenges in developing generalized automatic emotion recognition
systems include scarcity of labeled data and lack of gold-standard references.
Even for the cues that are labeled as the same emotion category, the
variability of associated expressions can be high depending on the elicitation
context e.g., emotion elicited during improvised conversations vs. acted
sessions with predefined scripts. In this work, we regard the emotion
elicitation approach as domain knowledge, and explore domain transfer learning
techniques on emotional utterances collected under different emotion
elicitation approaches, particularly with limited labeled target samples. Our
emotion recognition model combines the gradient reversal technique with an
entropy loss function as well as the softlabel loss, and the experiment results
show that domain transfer learning methods can be employed to alleviate the
domain mismatch between different elicitation approaches. Our work provides new
insights into emotion data collection, particularly the impact of its
elicitation strategies, and the importance of domain adaptation in emotion
recognition aiming for generalized systems.
- Abstract(参考訳): 一般化された感情認識システムの開発における主な課題は、ラベル付きデータの不足とゴールドスタンダード参照の欠如である。
同じ感情カテゴリとしてラベル付けされた手がかりであっても、関連する表現の変動性は、即興的な会話中に誘発される感情と、事前定義されたスクリプトによる実行されたセッションに依存する。
本研究では,感情誘発アプローチをドメイン知識として捉え,異なる感情誘発アプローチ,特に限定ラベル付きターゲットサンプルを用いて収集した感情発話に基づくドメイン伝達学習手法を検討する。
感情認識モデルは,エントロピー損失関数とソフトラベル損失関数を組み合わせ,実験結果から,異なるアプローチ間のドメインミスマッチを軽減するために,ドメイン転送学習手法を適用できることが示唆された。
本研究は,感情データ収集に対する新たな洞察,特にその誘発戦略の影響,および一般化されたシステムを対象とした感情認識における領域適応の重要性を提供する。
関連論文リスト
- Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Cross Domain Emotion Recognition using Few Shot Knowledge Transfer [21.750633928464026]
ほとんどショットもゼロショットも、文書や感情ラベルを共有埋め込み空間に投影することで、目に見えない感情を一般化することができる。
本研究では,GoEmotions Reddit データセットの監視から得られた知識をSemEval ツイートコーパスに転送することで,数発の感情認識の課題を探求する。
論文 参考訳(メタデータ) (2021-10-11T06:22:18Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Target Guided Emotion Aware Chat Machine [58.8346820846765]
意味レベルと感情レベルにおける投稿に対する応答の整合性は、人間のような対話を提供する対話システムにとって不可欠である。
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-15T01:55:37Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。