論文の概要: Predicting the Intention to Interact with a Service Robot:the Role of Gaze Cues
- arxiv url: http://arxiv.org/abs/2404.01986v1
- Date: Tue, 2 Apr 2024 14:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 16:09:04.852708
- Title: Predicting the Intention to Interact with a Service Robot:the Role of Gaze Cues
- Title(参考訳): サービスロボットと対話する意図の予測:迷路クイズの役割
- Authors: Simone Arreghini, Gabriele Abbate, Alessandro Giusti, Antonio Paolillo,
- Abstract要約: サービスロボットは、接近する人が対話する意図をできるだけ早く知覚する必要がある。
我々は,この認識課題を,対話を意図した潜在的なユーザ意図のシーケンス・ツー・シーケンス分類器を用いて解決する。
我々の主な貢献は、この文脈における人の視線を表す特徴の利点の研究である。
- 参考スコア(独自算出の注目度): 51.58558750517068
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: For a service robot, it is crucial to perceive as early as possible that an approaching person intends to interact: in this case, it can proactively enact friendly behaviors that lead to an improved user experience. We solve this perception task with a sequence-to-sequence classifier of a potential user intention to interact, which can be trained in a self-supervised way. Our main contribution is a study of the benefit of features representing the person's gaze in this context. Extensive experiments on a novel dataset show that the inclusion of gaze cues significantly improves the classifier performance (AUROC increases from 84.5% to 91.2%); the distance at which an accurate classification can be achieved improves from 2.4 m to 3.2 m. We also quantify the system's ability to adapt to new environments without external supervision. Qualitative experiments show practical applications with a waiter robot.
- Abstract(参考訳): サービスロボットにとって、接近する人が対話しようとすることをできるだけ早く認識することが不可欠である。
本稿では,対話を意図した潜在的ユーザ意図のシーケンス・ツー・シーケンス分類器を用いて,この認識課題を解決する。
我々の主な貢献は、この文脈における人の視線を表す特徴の利点の研究である。
新たなデータセットに対する大規模な実験により、視線を含むと分類性能が著しく向上する(AUROCは84.5%から91.2%に増加し、正確な分類が可能な距離は2.4mから3.2mに向上する。
また、外部の監督なしに新しい環境に適応するシステムの能力を定量化する。
定性的実験は、ウェイターロボットによる実用的応用を示す。
関連論文リスト
- Vocal Sandbox: Continual Learning and Adaptation for Situated Human-Robot Collaboration [64.6107798750142]
Vocal Sandboxは、位置のある環境でシームレスな人間とロボットのコラボレーションを可能にするフレームワークである。
我々は,ロボットの能力に対する理解と協調をリアルタイムで構築できる軽量で解釈可能な学習アルゴリズムを設計する。
我々はVocal Sandboxを,コラボレーションギフトバッグアセンブリとLEGOストップモーションアニメーションの2つの設定で評価した。
論文 参考訳(メタデータ) (2024-11-04T20:44:40Z) - Learning from Observer Gaze:Zero-Shot Attention Prediction Oriented by Human-Object Interaction Recognition [13.956664101032006]
まず,740種類の相互作用カテゴリの530,000個の固定点を含む,IGという新しい視線固定データセットを収集した。
次に、ゼロショットインタラクション指向の注意予測タスクZeroIAを紹介し、トレーニング中に遭遇しないインタラクションに対する視覚的手がかりを予測するモデルに挑戦する。
第3に、人間観測者の認知過程をエミュレートしてZeroIA問題に取り組むための対話型注意モデルIAを提案する。
論文 参考訳(メタデータ) (2024-05-16T09:34:57Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Introspection-based Explainable Reinforcement Learning in Episodic and
Non-episodic Scenarios [14.863872352905629]
イントロスペクションベースのアプローチは、成功の確率を提供するために強化学習エージェントと併用することができる。
イントロスペクションに基づくアプローチは、非エポゾディックなロボティクス環境でもたらされた動作を説明するためにも使用できる。
論文 参考訳(メタデータ) (2022-11-23T13:05:52Z) - An adaptive admittance controller for collaborative drilling with a
robot based on subtask classification via deep learning [2.7823969627873986]
pHRIタスクには, アイドル, ドライビング, コンタクトという3つのサブタスクがある。
この分類に基づいて、人間とロボットの相互作用を制御するアクセタンスコントローラのパラメータをリアルタイムで適応的に調整する。
実験結果から、ANNモデルは、12人の被験者に対して98%の精度で、異なるアクセント制御条件下でサブタスクを検出することができることがわかった。
論文 参考訳(メタデータ) (2022-05-28T15:28:12Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。