論文の概要: Learning to Communicate Functional States with Nonverbal Expressions for Improved Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2404.19253v1
- Date: Tue, 30 Apr 2024 04:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-01 15:33:46.250426
- Title: Learning to Communicate Functional States with Nonverbal Expressions for Improved Human-Robot Collaboration
- Title(参考訳): 非言語表現による機能状態のコミュニケーション学習による人間-ロボット協調の促進
- Authors: Liam Roy, Dana Kulic, Elizabeth Croft,
- Abstract要約: 協調ロボットは、スムーズな対話を可能にするために、内部状態を人間に効果的に伝える必要がある。
雑音の多い人間のフィードバックに基づく強化学習アルゴリズムを提案し, 正確に解釈された非言語音声表現を生成する。
- 参考スコア(独自算出の注目度): 3.5408317027307055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative robots must effectively communicate their internal state to humans to enable a smooth interaction. Nonverbal communication is widely used to communicate information during human-robot interaction, however, such methods may also be misunderstood, leading to communication errors. In this work, we explore modulating the acoustic parameter values (pitch bend, beats per minute, beats per loop) of nonverbal auditory expressions to convey functional robot states (accomplished, progressing, stuck). We propose a reinforcement learning (RL) algorithm based on noisy human feedback to produce accurately interpreted nonverbal auditory expressions. The proposed approach was evaluated through a user study with 24 participants. The results demonstrate that: 1. Our proposed RL-based approach is able to learn suitable acoustic parameter values which improve the users' ability to correctly identify the state of the robot. 2. Algorithm initialization informed by previous user data can be used to significantly speed up the learning process. 3. The method used for algorithm initialization strongly influences whether participants converge to similar sounds for each robot state. 4. Modulation of pitch bend has the largest influence on user association between sounds and robotic states.
- Abstract(参考訳): 協調ロボットは、スムーズな対話を可能にするために、内部状態を人間に効果的に伝える必要がある。
非言語コミュニケーションは、人間とロボットの相互作用の間、情報を伝達するために広く利用されているが、そのような方法は誤解され、通信エラーにつながる可能性がある。
本研究では,非言語的聴覚表現の音響パラメータ値(ピッチ曲げ,1分当たりのビート,ループ当たりのビート)を調整し,機能的ロボット状態を伝達する。
雑音の多い人間のフィードバックに基づく強化学習(RL)アルゴリズムを提案する。
提案手法は,24名を対象にしたユーザスタディにより評価した。
結果は以下のとおりである。
提案手法は,ロボットの状態を正確に識別する能力を向上させるため,適切な音響パラメータ値の学習を可能にする。
2. 従来のユーザデータから得られるアルゴリズムの初期化は,学習プロセスの大幅な高速化に有効である。
3)アルゴリズムの初期化に用いる手法は,各ロボット状態に対して,参加者が類似音に収束するか否かに強く影響する。
4. ピッチ屈曲の変調は音とロボット状態のユーザ関係に最も大きな影響を及ぼす。
関連論文リスト
- Reciprocal Learning of Intent Inferral with Augmented Visual Feedback for Stroke [2.303526979876375]
本稿では,意図的推論型分類器への人間の適応を容易にする双方向パラダイムを提案する。
我々はこのパラダイムを、脳卒中のためのロボットハンドの整形制御の文脈で実証する。
脳卒中患者を対象に行った実験では,他者に対するパフォーマンスに悪影響を及ぼすことなく,サブセットでの相互学習によるパフォーマンス向上が見られた。
論文 参考訳(メタデータ) (2024-12-10T22:49:36Z) - Simulating User Agents for Embodied Conversational-AI [9.402740034754455]
我々は,エンボディエージェントとのインタラクション中にユーザ動作をシミュレート可能な,LLMベースのユーザエージェントを構築した。
シミュレーション対話をTEAChデータセットと比較することにより,ユーザエージェントの人間的行動生成能力を評価する。
論文 参考訳(メタデータ) (2024-10-31T00:56:08Z) - Predictive Speech Recognition and End-of-Utterance Detection Towards Spoken Dialog Systems [55.99999020778169]
本稿では,次の単語を予測し,発話終了まで残される時間を推定する機能について検討する。
我々は,音響情報と言語情報の両方を組み込んだクロスアテンションに基づくアルゴリズムを開発した。
その結果,提案モデルでは,提案する単語を予測し,将来のEOUイベントを実際のEOUより300ミリ秒前まで推定する能力を示した。
論文 参考訳(メタデータ) (2024-09-30T06:29:58Z) - MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Co-Speech Gesture Synthesis using Discrete Gesture Token Learning [1.1694169299062596]
リアルな音声のジェスチャーを合成することは、信じられない動きを作り出す上で重要な問題であるが未解決の問題である。
共同音声ジェスチャーモデルを学ぶ上での課題の1つは、同一発話に対して複数の実行可能なジェスチャー動作が存在することである。
我々は、ジェスチャーセグメントを離散潜在符号としてモデル化することで、ジェスチャー合成におけるこの不確実性に対処する2段階モデルを提案した。
論文 参考訳(メタデータ) (2023-03-04T01:42:09Z) - "No, to the Right" -- Online Language Corrections for Robotic
Manipulation via Shared Autonomy [70.45420918526926]
LILACは、実行中に自然言語の修正をオンラインで実施し、適応するためのフレームワークである。
LILACは人間とロボットを個別にターンテイクする代わりに、人間とロボットの間にエージェンシーを分割する。
提案手法は,タスク完了率が高く,ユーザによって主観的に好まれることを示す。
論文 参考訳(メタデータ) (2023-01-06T15:03:27Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。