論文の概要: Dynamic Time-Alignment of Dimensional Annotations of Emotion using
Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2209.10223v1
- Date: Wed, 21 Sep 2022 09:38:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:09:54.066262
- Title: Dynamic Time-Alignment of Dimensional Annotations of Emotion using
Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークを用いた感情の次元アノテーションの動的時間アライメント
- Authors: Sina Alisamir, Fabien Ringeval, Francois Portet
- Abstract要約: 本稿では,アノテーション間の不整合を補償し,対応する音響特徴とトレースを同期させる手法を提案する。
その結果,提案手法は,音声特徴量とトレースの相関だけでなく,アノテータ間のアノテータ間のアノテータ合意を著しく向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 9.02236667251654
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most automatic emotion recognition systems exploit time-continuous
annotations of emotion to provide fine-grained descriptions of spontaneous
expressions as observed in real-life interactions. As emotion is rather
subjective, its annotation is usually performed by several annotators who
provide a trace for a given dimension, i.e. a time-continuous series describing
a dimension such as arousal or valence. However, annotations of the same
expression are rarely consistent between annotators, either in time or in
value, which adds bias and delay in the trace that is used to learn predictive
models of emotion. We therefore propose a method that can dynamically
compensate inconsistencies across annotations and synchronise the traces with
the corresponding acoustic features using Recurrent Neural Networks.
Experimental evaluations were carried on several emotion data sets that include
Chinese, French, German, and Hungarian participants who interacted remotely in
either noise-free conditions or in-the-wild. The results show that our method
can significantly increase inter-annotator agreement, as well as correlation
between traces and audio features, for both arousal and valence. In addition,
improvements are obtained in the automatic prediction of these dimensions using
simple light-weight models, especially for valence in noise-free conditions,
and arousal for recordings captured in-the-wild.
- Abstract(参考訳): ほとんどの自動感情認識システムは、リアルタイムの相互作用で見られる自然表現の詳細な記述を提供するために、感情の時間連続アノテーションを利用する。
感情はむしろ主観的であるため、その注釈は通常、与えられた次元、すなわち覚醒や原子価などの次元を記述する時間連続列のトレースを提供する複数の注釈家によって実行される。
しかし、同じ表現のアノテーションは、時間的または価値的に、注釈者間で一貫性を持たず、感情の予測モデルを学ぶために使われるトレースにバイアスと遅延を付加する。
そこで本研究では,アノテーション間の不整合を動的に補償し,対応する音響特徴と同期する手法を提案する。
実験的な評価は、中国、フランス、ドイツ、ハンガリーの参加者を含む複数の感情データセットを用いて行われた。
以上の結果から,提案手法は音節間アグリーメントを著しく増加させるだけでなく,音素と音響特徴の相関性も高めることができることが示唆された。
また, 簡易な軽量モデル, 特に無騒音環境における原子価, 被写体内記録の覚醒を用いて, これらの寸法の自動予測において改善が得られた。
関連論文リスト
- Dual-Constrained Dynamical Neural ODEs for Ambiguity-aware Continuous Emotion Prediction [15.501509284292476]
本稿では,感情分布の力学をモデル化する両拘束型ニューラルODE手法を提案する。
提案手法では,ニューラルネットワークによってパラメータ化されたODEを用いて分布パラメータを推定し,システム出力の範囲を制限するために追加制約を統合する。
論文 参考訳(メタデータ) (2024-07-31T05:18:06Z) - Emotion Recognition from the perspective of Activity Recognition [0.0]
人間の感情状態、行動、反応を現実世界の環境に適応させることは、潜伏した連続した次元を用いて達成できる。
感情認識システムが現実のモバイルおよびコンピューティングデバイスにデプロイされ統合されるためには、世界中の収集されたデータを考慮する必要がある。
本稿では,注目機構を備えた新しい3ストリームエンドツーエンドのディープラーニング回帰パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-24T18:53:57Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Unifying the Discrete and Continuous Emotion labels for Speech Emotion
Recognition [28.881092401807894]
音声からの感情検出のためのパラ言語分析では、感情は離散的または次元的(連続的な評価)ラベルと同一視されている。
本研究では,連続的感情特性と離散的感情特性を共同で予測するモデルを提案する。
論文 参考訳(メタデータ) (2022-10-29T16:12:31Z) - Dilated Context Integrated Network with Cross-Modal Consensus for
Temporal Emotion Localization in Videos [128.70585652795637]
TELは、時間的行動の局所化と比較して3つのユニークな課題を提示している。
感情は時間的ダイナミクスが非常に多様である。
微粒な時間的アノテーションは複雑で、労働集約的です。
論文 参考訳(メタデータ) (2022-08-03T10:00:49Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - Few-shot Learning in Emotion Recognition of Spontaneous Speech Using a
Siamese Neural Network with Adaptive Sample Pair Formation [11.592365534228895]
本稿では,少数のラベル付きサンプルから自然発話中の感情を自動的に認識するための,数発の学習手法を提案する。
ほとんどショットラーニングは、シアムニューラルネットワークを介してメトリックラーニングアプローチによって実装されている。
その結果,4つのデータセットにおける自発音声からの感情認識におけるメトリック学習の有効性が示唆された。
論文 参考訳(メタデータ) (2021-09-07T08:04:02Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Facial Emotion Recognition with Noisy Multi-task Annotations [88.42023952684052]
ノイズの多いマルチタスクアノテーションを用いた顔の感情認識の新しい問題を提案する。
この新たな問題に対して,共同分布マッチングの観点からの定式化を提案する。
我々は,感情予測と共同分布学習を可能にする新しい手法を利用する。
論文 参考訳(メタデータ) (2020-10-19T20:39:37Z) - Time-Frequency Scattering Accurately Models Auditory Similarities
Between Instrumental Playing Techniques [5.923588533979649]
音色知覚は楽器や演奏技術だけで提供されるものよりも柔軟な分類法で機能することを示す。
本稿では,楽器,ミュート,技法間の類似性のクラスタグラフを復元するマシンリスニングモデルを提案する。
論文 参考訳(メタデータ) (2020-07-21T16:37:15Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。