論文の概要: Developing Social Robots with Empathetic Non-Verbal Cues Using Large
Language Models
- arxiv url: http://arxiv.org/abs/2308.16529v1
- Date: Thu, 31 Aug 2023 08:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 15:22:58.534204
- Title: Developing Social Robots with Empathetic Non-Verbal Cues Using Large
Language Models
- Title(参考訳): 大規模言語モデルを用いた共感的非言語手がかりを用いたソーシャルロボットの開発
- Authors: Yoon Kyung Lee, Yoonwon Jung, Gyuyi Kang, Sowon Hahn
- Abstract要約: 我々は,音声,行動(妊娠),表情,感情の4種類の共感的非言語的手がかりを社会ロボットで設計し,ラベル付けする。
予備的な結果は、ロボットの反応において「喜び」や「リリー」のような穏やかでポジティブな社会的感情の好みや、頻繁にうなずく動作など、異なるパターンが示される。
我々の研究は、言語と非言語の両方が社会的・共感的なロボットを作る上で不可欠な役割を強調し、人間とロボットの相互作用に関する将来の研究の基盤となる。
- 参考スコア(独自算出の注目度): 2.5489046505746704
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose augmenting the empathetic capacities of social robots by
integrating non-verbal cues. Our primary contribution is the design and
labeling of four types of empathetic non-verbal cues, abbreviated as SAFE:
Speech, Action (gesture), Facial expression, and Emotion, in a social robot.
These cues are generated using a Large Language Model (LLM). We developed an
LLM-based conversational system for the robot and assessed its alignment with
social cues as defined by human counselors. Preliminary results show distinct
patterns in the robot's responses, such as a preference for calm and positive
social emotions like 'joy' and 'lively', and frequent nodding gestures. Despite
these tendencies, our approach has led to the development of a social robot
capable of context-aware and more authentic interactions. Our work lays the
groundwork for future studies on human-robot interactions, emphasizing the
essential role of both verbal and non-verbal cues in creating social and
empathetic robots.
- Abstract(参考訳): 非言語的手がかりを統合することにより,社会ロボットの共感能力を高めることを提案する。
我々の主な貢献は、社会ロボットにおける4種類の共感的非言語的手がかり(SAFE: Speech, Action (gesture), Facial expression, Emotion)の設計とラベル付けである。
これらのキューはLarge Language Model (LLM)を使って生成される。
ロボットのためのLLMベースの会話システムを開発し,人間のカウンセラーが定義した社会的手がかりとの整合性を評価した。
予備的な結果は、ロボットの反応において「喜び」や「リリー」のような穏やかでポジティブな社会的感情の好みや、頻繁にうなずく動作など、異なるパターンを示す。
このような傾向にもかかわらず、我々のアプローチは文脈認識とより真正な相互作用が可能な社会ロボットの開発につながっている。
我々の研究は、言語と非言語の両方が社会的・共感的なロボットを作る上で不可欠な役割を強調し、人間とロボットの相互作用に関する将来の研究の基盤となる。
関連論文リスト
- Survey of Design Paradigms for Social Robots [10.618592615516901]
ソーシャルロボットはマルチモーダルコミュニケーションを活用し、音声、表情、ジェスチャーを取り入れ、ユーザのエンゲージメントと感情的サポートを強化する。
社会ロボットの設計パラダイムの理解は、システムの複雑さと特定のタスクに調整する必要性によって妨げられている。
本稿では、社会ロボット設計パラダイムを構造化し、それらを認知アーキテクチャ、役割デザインモデル、言語モデル、コミュニケーションフロー、アクティビティシステムモデル、統合デザインモデルに分類する。
論文 参考訳(メタデータ) (2024-07-30T05:22:31Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - To Whom are You Talking? A Deep Learning Model to Endow Social Robots with Addressee Estimation Skills [44.497086629717074]
本研究では,話者からの非言語的身体的手がかりを解釈し,活用することにより,発話者の宛先を理解する能力である宛先推定の問題に取り組む。
本研究では,話者の顔と身体姿勢の2次元ベクトルを表現した入力画像として,畳み込み層とLSTMセルからなるハイブリッドディープラーニングモデルを実装する。
我々は,ロボットの自我中心の視点から,空間におけるアドレスの局所化の観点から,我々のモデルがアドレス推定問題を解くことができることを示した。
論文 参考訳(メタデータ) (2023-08-21T14:43:42Z) - Social Assistive Robotics for Autistic Children [56.524774292536264]
このプロジェクトの目的は、自閉症児と社会ロボットNAOとの相互作用をテストすることである。
このプロジェクトのイノベーティブな側面は、子供のロボットのインタラクションが子供の感情や特定の特徴を熟考することである。
論文 参考訳(メタデータ) (2022-09-25T18:28:19Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Forecasting Nonverbal Social Signals during Dyadic Interactions with
Generative Adversarial Neural Networks [0.0]
社会的相互作用の成功は、非言語的知覚と行動機構の相互作用と密接に結びついている。
非言語的ジェスチャーは、発話を強調したり意図を示す能力を持つ社会ロボットを養うことが期待されている。
我々の研究は、社会的相互作用における人間の振舞いのモデル化に光を当てている。
論文 参考訳(メタデータ) (2021-10-18T15:01:32Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Affect-Driven Modelling of Robot Personality for Collaborative
Human-Robot Interactions [16.40684407420441]
協調的な相互作用は、人間の感情的行動のダイナミクスに適応するために社会ロボットを必要とする。
社会ロボットにおける人格駆動行動生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-10-14T16:34:14Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。