論文の概要: Read the Room: Adapting a Robot's Voice to Ambient and Social Contexts
- arxiv url: http://arxiv.org/abs/2205.04952v3
- Date: Thu, 21 Sep 2023 14:55:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 11:48:14.933907
- Title: Read the Room: Adapting a Robot's Voice to Ambient and Social Contexts
- Title(参考訳): read the room: ロボットの声を環境や社会的文脈に適応させる
- Authors: Paige Tuttosi, Emma Hughson, Akihiro Matsufuji, Angelica Lim
- Abstract要約: 本稿では,社会的適切さと環境意識を認知するためのロボット音声スタイルの選択に向けたプロセスと結果について述べる。
N=120人の被験者による実験の結果、異なる環境下での音声スタイルの選択がロボットの知覚的インテリジェンスに影響を及ぼすという証拠が得られた。
- 参考スコア(独自算出の注目度): 1.0732907121422146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How should a robot speak in a formal, quiet and dark, or a bright, lively and
noisy environment? By designing robots to speak in a more social and
ambient-appropriate manner we can improve perceived awareness and intelligence
for these agents. We describe a process and results toward selecting robot
voice styles for perceived social appropriateness and ambiance awareness.
Understanding how humans adapt their voices in different acoustic settings can
be challenging due to difficulties in voice capture in the wild. Our approach
includes 3 steps: (a) Collecting and validating voice data interactions in
virtual Zoom ambiances, (b) Exploration and clustering human vocal utterances
to identify primary voice styles, and (c) Testing robot voice styles in
recreated ambiances using projections, lighting and sound. We focus on food
service scenarios as a proof-of-concept setting. We provide results using the
Pepper robot's voice with different styles, towards robots that speak in a
contextually appropriate and adaptive manner. Our results with N=120
participants provide evidence that the choice of voice style in different
ambiances impacted a robot's perceived intelligence in several factors
including: social appropriateness, comfort, awareness, human-likeness and
competency.
- Abstract(参考訳): ロボットはどのように、形式的、静か、暗く、あるいは明るく、活発で、騒がしい環境で話すべきか?
ロボットがより社会的で環境に合った方法で話すように設計することで、エージェントに対する認識と知性を改善することができる。
社会的適切さと環境意識を認識するロボット音声スタイルの選択に向けたプロセスと結果について述べる。
人間の声を異なる音環境に適応させる方法を理解することは、野生の音声キャプチャーの難しさのために難しい場合がある。
私たちのアプローチには3つのステップがあります。
(a)仮想ズームアンバイアンスにおける音声データの相互作用の収集と検証
(b)第一声のスタイルを識別するために、人間の声の発話を探索し、クラスタリングすること。
(c)プロジェクション,照明,音を用いて再現環境下でロボット音声のスタイルをテストする。
私たちは概念実証として、食品サービスのシナリオに注目します。
我々は,Pepperロボットの声を異なるスタイルで使用して,文脈的に適切かつ適応的に話すロボットに結果を提示する。
n=120の参加者による結果から,音声スタイルの選択は,ロボットの知覚知性に,社会的適合性,快適性,意識性,人間的類似性,能力性など,いくつかの要因に影響を与えていることが示唆された。
関連論文リスト
- Ain't Misbehavin' -- Using LLMs to Generate Expressive Robot Behavior in
Conversations with the Tabletop Robot Haru [9.2526849536751]
本稿では,大規模言語モデル(LLM)を利用して,表現行動を伴うロボット応答を生成する,完全自動会話システムを提案する。
提案したシステムを用いて,ボランティアが社会ロボットとチャットし,そのフィードバックを分析し,チャットテキストの厳密な誤り解析を行う。
最も否定的なフィードバックは、会話に限られた影響を及ぼす自動音声認識(ASR)エラーによるものだった。
論文 参考訳(メタデータ) (2024-02-18T12:35:52Z) - Speech-Gesture GAN: Gesture Generation for Robots and Embodied Agents [5.244401764969407]
仮想エージェントや社会ロボットという形で、身体エージェントが急速に普及している。
音声テキストと音声の発話から関節角度の連続を生成できる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-17T18:46:25Z) - Developing Social Robots with Empathetic Non-Verbal Cues Using Large
Language Models [2.5489046505746704]
我々は,音声,行動(妊娠),表情,感情の4種類の共感的非言語的手がかりを社会ロボットで設計し,ラベル付けする。
予備的な結果は、ロボットの反応において「喜び」や「リリー」のような穏やかでポジティブな社会的感情の好みや、頻繁にうなずく動作など、異なるパターンが示される。
我々の研究は、言語と非言語の両方が社会的・共感的なロボットを作る上で不可欠な役割を強調し、人間とロボットの相互作用に関する将来の研究の基盤となる。
論文 参考訳(メタデータ) (2023-08-31T08:20:04Z) - To Whom are You Talking? A Deep Learning Model to Endow Social Robots
with Addressee Estimation Skills [47.1498169955033]
本研究では,話者からの非言語的身体的手がかりを解釈し,活用することにより,発話者の宛先を理解する能力である宛先推定の問題に取り組む。
本研究では,話者の顔と身体姿勢の2次元ベクトルを表現した入力画像として,畳み込み層とLSTMセルからなるハイブリッドディープラーニングモデルを実装する。
我々は,ロボットの自我中心の視点から,空間におけるアドレスの局所化の観点から,我々のモデルがアドレス推定問題を解くことができることを示した。
論文 参考訳(メタデータ) (2023-08-21T14:43:42Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Robotic Speech Synthesis: Perspectives on Interactions, Scenarios, and
Ethics [2.6959411243976175]
本稿では,非言語および対話指向音声信号,特にバックチャネルの合成の難しさについて論じる。
我々は,人間-ロボットインタラクション研究者の注意を引き、より優れた対話型ロボットを設計することを目的として,関連文献と先行研究の成果を提示する。
論文 参考訳(メタデータ) (2022-03-17T20:24:17Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。