論文の概要: A Service Robot's Guide to Interacting with Busy Customers
- arxiv url: http://arxiv.org/abs/2512.17241v1
- Date: Fri, 19 Dec 2025 05:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.419289
- Title: A Service Robot's Guide to Interacting with Busy Customers
- Title(参考訳): 忙しい顧客と対話するサービスロボットのガイド
- Authors: Suraj Nukala, Meera Sushma, Leimin Tian, Akansel Cosgun, Dana Kulic,
- Abstract要約: 本研究では,サービスロボットによるコミュニケーションモダリティの注意獲得とコミュニケーション意図に対する効果について検討した。
テミロボットを用いて配送作業のシミュレーションを行った。
参加者は視覚を意図的明快さの最も効果的なモダリティとみなし、その後に音声が続き、マイクロモーションが最下位にランクされた。
- 参考スコア(独自算出の注目度): 1.9065922743901067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing use of service robots in hospitality highlights the need to understand how to effectively communicate with pre-occupied customers. This study investigates the efficacy of commonly used communication modalities by service robots, namely, acoustic/speech, visual display, and micromotion gestures in capturing attention and communicating intention with a user in a simulated restaurant scenario. We conducted a two-part user study (N=24) using a Temi robot to simulate delivery tasks, with participants engaged in a typing game (MonkeyType) to emulate a state of busyness. The participants' engagement in the typing game is measured by words per minute (WPM) and typing accuracy. In Part 1, we compared non-verbal acoustic cue versus baseline conditions to assess attention capture during a single-cup delivery task. In Part 2, we evaluated the effectiveness of speech, visual display, micromotion and their multimodal combination in conveying specific intentions (correct cup selection) during a two-cup delivery task. The results indicate that, while speech is highly effective in capturing attention, it is less successful in clearly communicating intention. Participants rated visual as the most effective modality for intention clarity, followed by speech, with micromotion being the lowest ranked.These findings provide insights into optimizing communication strategies for service robots, highlighting the distinct roles of attention capture and intention communication in enhancing user experience in dynamic hospitality settings.
- Abstract(参考訳): ホスピタリティにおけるサービスロボットの利用の増加は、事前に占領された顧客と効果的にコミュニケーションする方法を理解する必要性を浮き彫りにする。
本研究では,サービスロボット,すなわち音響/音声,視覚表示,マイクロモーションジェスチャが,利用者の注意を引いたり,シミュレートされたレストランのシナリオにおけるコミュニケーション意図を伝達する上で,一般的に使用されるコミュニケーションモダリティの有効性について検討した。
我々は,テミロボットを用いた2部構成のユーザスタディ (N=24) を行い,参加者がタイピングゲーム(MonkeyType)に参加し,忙しさの状態をエミュレートした。
入力ゲームにおける参加者のエンゲージメントは、単語毎分(WPM)とタイピング精度によって測定される。
第1部では,非言語音響キューとベースライン条件を比較し,単一カップ配送作業における注意獲得を評価する。
第2部では, 音声, 視覚表示, マイクロモーション, およびマルチモーダルの組み合わせが, 2カップ配送作業において, 特定の意図(正しいカップ選択)を伝達する際の有効性を評価した。
その結果,発話は注意を惹きつけるのに非常に効果的であるが,意図を明確に伝達する上ではあまり成功していないことが示唆された。
参加者は視覚を意図的明快さの最も効果的なモダリティとして評価し, 音声に続き, マイクロモーションが最下位であり, サービスロボットのコミュニケーション戦略の最適化に関する洞察を与え, 動的ホスピタリティ設定におけるユーザエクスペリエンス向上における注意獲得と意図的コミュニケーションの役割を強調した。
関連論文リスト
- Mind the Style: Impact of Communication Style on Human-Chatbot Interaction [8.656732143142756]
参加者がNAVIと対話する対象間ユーザ調査の結果について述べる。
1つのバージョンは親しみやすく、サポート的であり、もう1つは直接的でタスク中心である。
その結果,親和性は主観的満足度を高め,女性のみのタスク完了率を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2026-02-19T21:32:41Z) - Bidirectional Human-Robot Communication for Physical Human-Robot Interaction [13.222878560524896]
BRIDGEは、物理的支援における双方向の人間ロボット通信システムである。
提案手法では,自然言語を用いてロボットの計画軌道をリアルタイムで修正することができる。
本システムでは, ユーザに対して, 結果の変化の確認や, 明確な疑問の呈示など, 言葉によるフィードバックを提供する。
論文 参考訳(メタデータ) (2026-01-15T19:01:02Z) - RoboOmni: Proactive Robot Manipulation in Omni-modal Context [165.09049429566238]
我々は,音声対話や環境音,視覚的手がかりから意図を導出する,クロスモーダルな文脈指示を導入する。
目的認識,インタラクション確認,アクション実行を統一する,エンドツーエンドのOmni-Modal LLMに基づくフレームワークであるRoboOmniを提案する。
シミュレーションと実世界の設定の実験では、Robo OmniはテキストベースとASRベースのベースラインを越え、成功率、推論速度、意図認識、積極的に支援している。
論文 参考訳(メタデータ) (2025-10-27T18:49:03Z) - Learning to Communicate Functional States with Nonverbal Expressions for Improved Human-Robot Collaboration [3.5408317027307055]
協調ロボットは、スムーズな対話を可能にするために、内部状態を人間に効果的に伝える必要がある。
雑音の多い人間のフィードバックに基づく強化学習アルゴリズムを提案し, 正確に解釈された非言語音声表現を生成する。
論文 参考訳(メタデータ) (2024-04-30T04:18:21Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - GOMA: Proactive Embodied Cooperative Communication via Goal-Oriented Mental Alignment [72.96949760114575]
我々は、ゴール指向メンタルアライメント(GOMA)という新しい協調コミュニケーションフレームワークを提案する。
GOMAは、目標に関連のあるエージェントの精神状態のミスアライメントを最小限に抑える計画問題として、言語コミュニケーションを定式化している。
我々は,Overcooked(マルチプレイヤーゲーム)とVirtualHome(家庭用シミュレータ)の2つの挑戦環境において,強いベースラインに対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-03-17T03:52:52Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。