論文の概要: Self context-aware emotion perception on human-robot interaction
- arxiv url: http://arxiv.org/abs/2401.10946v1
- Date: Thu, 18 Jan 2024 10:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 18:41:29.447244
- Title: Self context-aware emotion perception on human-robot interaction
- Title(参考訳): 人間とロボットの相互作用における自己文脈認識
- Authors: Zihan Lin, Francisco Cruz, and Eduardo Benitez Sandoval
- Abstract要約: 人間は、文脈情報と異なる文脈が、全く異なる感情表現をもたらす可能性があると考えている。
異なる感情をアンカーし、再ラベルするための2次元感情座標システムを用いた自己文脈認識モデル(SCAM)を導入する。
このアプローチは、オーディオ、ビデオ、マルチモーダル環境において、大幅な改善をもたらした。
- 参考スコア(独自算出の注目度): 3.775456992482295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion recognition plays a crucial role in various domains of human-robot
interaction. In long-term interactions with humans, robots need to respond
continuously and accurately, however, the mainstream emotion recognition
methods mostly focus on short-term emotion recognition, disregarding the
context in which emotions are perceived. Humans consider that contextual
information and different contexts can lead to completely different emotional
expressions. In this paper, we introduce self context-aware model (SCAM) that
employs a two-dimensional emotion coordinate system for anchoring and
re-labeling distinct emotions. Simultaneously, it incorporates its distinctive
information retention structure and contextual loss. This approach has yielded
significant improvements across audio, video, and multimodal. In the auditory
modality, there has been a notable enhancement in accuracy, rising from 63.10%
to 72.46%. Similarly, the visual modality has demonstrated improved accuracy,
increasing from 77.03% to 80.82%. In the multimodal, accuracy has experienced
an elevation from 77.48% to 78.93%. In the future, we will validate the
reliability and usability of SCAM on robots through psychology experiments.
- Abstract(参考訳): 感情認識は、人間とロボットの相互作用の様々な領域において重要な役割を果たす。
人間との長期的な対話では、ロボットは継続的に正確に反応する必要があるが、主流の感情認識手法は主に、感情が知覚される文脈を無視して、短期的な感情認識に焦点を当てている。
人間は文脈情報と異なる文脈が全く異なる感情表現をもたらすと考える。
本稿では,異なる感情を固定・再ラベルする2次元感情座標系を用いた自己文脈認識モデル(scam)を提案する。
同時に、その特有の情報保持構造とコンテキスト損失を取り入れている。
このアプローチは、オーディオ、ビデオ、マルチモーダルに大幅な改善をもたらした。
聴覚のモダリティでは、精度が63.10%から72.46%に向上した。
同様に、視覚モダリティは77.03%から80.82%に向上し、精度が向上した。
マルチモーダルでは、精度は77.48%から78.93%に上昇した。
将来、心理学実験を通じて、ロボットにおけるSCAMの信頼性とユーザビリティを検証する。
関連論文リスト
- MEMO-Bench: A Multiple Benchmark for Text-to-Image and Multimodal Large Language Models on Human Emotion Analysis [53.012111671763776]
そこで本研究では、7,145枚の肖像画からなる総合的なベンチマークであるMEMO-Benchを紹介した。
以上の結果から,既存のT2Iモデルは負のモデルよりも肯定的な感情を生成するのに効果的であることが示唆された。
MLLMは人間の感情の識別と認識に一定の効果を示すが、人間のレベルの正確さには欠ける。
論文 参考訳(メタデータ) (2024-11-18T02:09:48Z) - Speech Emotion Recognition Using CNN and Its Use Case in Digital Healthcare [0.0]
人間の感情と感情状態を音声から識別するプロセスは、音声感情認識(SER)として知られている。
私の研究は、畳み込みニューラルネットワーク(CNN)を使って、音声録音と感情を区別し、異なる感情の範囲に応じてラベル付けすることを目指しています。
私は、機械学習手法を用いて、供給された音声ファイルから感情を識別する機械学習モデルを開発した。
論文 参考訳(メタデータ) (2024-06-15T21:33:03Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Temporal aggregation of audio-visual modalities for emotion recognition [0.5352699766206808]
本研究では,時間的オフセットの異なる時間的オフセットと時間的ウィンドウからの音声・視覚的モダリティを組み合わせた感情認識のためのマルチモーダル融合手法を提案する。
提案手法は,文献と人間の精度評価から,他の手法よりも優れている。
論文 参考訳(メタデータ) (2020-07-08T18:44:15Z) - Emotion Recognition in Audio and Video Using Deep Neural Networks [9.694548197876868]
ディープラーニング技術の進歩により、音声認識が大幅に向上した。
音声から感情を認識することは重要な側面であり、ディープラーニング技術により、感情認識は精度とレイテンシが向上した。
本研究では、感情認識の精度を向上させるために、異なるニューラルネットワークを探索する。
論文 参考訳(メタデータ) (2020-06-15T04:50:18Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。