論文の概要: Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue
- arxiv url: http://arxiv.org/abs/2103.03940v1
- Date: Fri, 5 Mar 2021 20:55:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 10:06:35.217665
- Title: Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue
- Title(参考訳): ロボット知覚と対話における感情刺激の明瞭化
- Authors: Henrique Siqueira, Alexander Sutherland, Pablo Barros, Mattias Kerzel,
Sven Magg, Stefan Wermter
- Abstract要約: 知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
- 参考スコア(独自算出の注目度): 67.89143112645556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effectively recognising and applying emotions to interactions is a highly
desirable trait for social robots. Implicitly understanding how subjects
experience different kinds of actions and objects in the world is crucial for
natural HRI interactions, with the possibility to perform positive actions and
avoid negative actions. In this paper, we utilize the NICO robot's appearance
and capabilities to give the NICO the ability to model a coherent affective
association between a perceived auditory stimulus and a temporally asynchronous
emotion expression. This is done by combining evaluations of emotional valence
from vision and language. NICO uses this information to make decisions about
when to extend conversations in order to accrue more affective information if
the representation of the association is not coherent. Our primary contribution
is providing a NICO robot with the ability to learn the affective associations
between a perceived auditory stimulus and an emotional expression. NICO is able
to do this for both individual subjects and specific stimuli, with the aid of
an emotion-driven dialogue system that rectifies emotional expression
incoherences. The robot is then able to use this information to determine a
subject's enjoyment of perceived auditory stimuli in a real HRI scenario.
- Abstract(参考訳): 感情を効果的に認識し、相互作用に適用することは、社会ロボットにとって非常に望ましい特徴である。
被験者が世界のさまざまな種類の行動や物体を体験する方法を暗黙的に理解することは、自然なHRI相互作用にとって不可欠であり、ポジティブな行動を実行し、ネガティブな行動を回避できる可能性がある。
本稿では、NICOロボットの外観と能力を利用して、NICOロボットに知覚された聴覚刺激と時間的に非同期な感情表現のコヒーレントな感情関係をモデル化する能力を与える。
これは視覚と言語からの感情的価値の評価を組み合わせることによって行われる。
NICOは、この情報を使用して、協会の表現が一貫性がない場合には、より感情的な情報を生み出すために会話を延長する時期を決定します。
我々の主な貢献は、知覚された聴覚刺激と感情表現の感情的関連を学習できるNICOロボットを提供することである。
NICOは、感情的な表情の不整合を是正する感情駆動対話システムによって、個人と特定の刺激の両方でこれを実現できる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
関連論文リスト
- SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - ECR-Chain: Advancing Generative Language Models to Better Emotion-Cause Reasoners through Reasoning Chains [61.50113532215864]
CEE(Causal Emotion Entailment)は、ターゲット発話で表現される感情を刺激する会話における因果発話を特定することを目的としている。
CEEにおける現在の研究は、主に会話のセマンティックな相互作用と感情的な相互作用をモデル化することに焦点を当てている。
本研究では,会話中の感情表現から刺激を推測するために,ステップバイステップの推論手法である感情・因果関係(ECR-Chain)を導入する。
論文 参考訳(メタデータ) (2024-05-17T15:45:08Z) - Emotion Flip Reasoning in Multiparty Conversations [27.884015521888458]
Instigator based Emotion Flip Reasoning (EFR) は、会話の中で話者の感情のフリップの背後にある侵入者を特定することを目的としている。
本報告では,感情心理学に則った基盤構造ERFインスティゲータラベルを含むデータセットであるMELD-Iについて述べる。
我々は,TransformerエンコーダとスタックGRUを利用して対話コンテキストをキャプチャする,TGIFと呼ばれる新しいニューラルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-24T13:22:02Z) - Nonverbal Cues in Human-Robot Interaction: A Communication Studies
Perspective [19.67112387337872]
人とのコミュニケーションは、多種多様な非言語的手がかりによって特徴づけられる。
我々は人間-ロボットインタラクション(HRI)のための決定的な非言語コードを提供する。
我々は、ロボット非言語コードをHRIに統合することで、ロボットに「アライブネス」や「社会的エージェンシー」を感じることができると主張している。
論文 参考訳(メタデータ) (2023-04-22T02:15:48Z) - Empathetic Dialogue Generation via Sensitive Emotion Recognition and
Sensible Knowledge Selection [47.60224978460442]
情緒的対話生成のためのシリアル・アンド・感情知識相互作用(SEEK)法を提案する。
我々は,会話中の感情のダイナミックス(感情の流れ)に敏感な微粒なエンコーディング戦略を用いて,応答の感情依存特性を予測するとともに,知識と感情の相互作用をモデル化し,より敏感な応答を生成する新しい枠組みを設計する。
論文 参考訳(メタデータ) (2022-10-21T03:51:18Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z) - Generating Emotionally Aligned Responses in Dialogues using Affect
Control Theory [15.848210524718219]
感情制御理論(Affect Control Theory、ACT)は、人間と人間の相互作用に対する感情の社会的・数学的モデルである。
本研究では、ACTが感情認識型神経会話エージェントの開発にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2020-03-07T19:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。