論文の概要: Improving Visual Perception of a Social Robot for Controlled and
In-the-wild Human-robot Interaction
- arxiv url: http://arxiv.org/abs/2403.01766v1
- Date: Mon, 4 Mar 2024 06:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:57:02.889650
- Title: Improving Visual Perception of a Social Robot for Controlled and
In-the-wild Human-robot Interaction
- Title(参考訳): 人とロボットのインタラクション制御のための社会ロボットの視覚知覚の改善
- Authors: Wangjie Zhong, Leimin Tian, Duy Tho Le, Hamid Rezatofighi
- Abstract要約: ソーシャルロボットが深層学習に基づく視覚知覚モデルを採用すると、客観的相互作用性能と主観的ユーザ体験がどう影響するかは明らかでない。
我々は、ペッパーロボットの視覚知覚機能を改善するために、最先端の人間の知覚と追跡モデルを用いている。
- 参考スコア(独自算出の注目度): 10.260966795508569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social robots often rely on visual perception to understand their users and
the environment. Recent advancements in data-driven approaches for computer
vision have demonstrated great potentials for applying deep-learning models to
enhance a social robot's visual perception. However, the high computational
demands of deep-learning methods, as opposed to the more resource-efficient
shallow-learning models, bring up important questions regarding their effects
on real-world interaction and user experience. It is unclear how will the
objective interaction performance and subjective user experience be influenced
when a social robot adopts a deep-learning based visual perception model. We
employed state-of-the-art human perception and tracking models to improve the
visual perception function of the Pepper robot and conducted a controlled lab
study and an in-the-wild human-robot interaction study to evaluate this novel
perception function for following a specific user with other people present in
the scene.
- Abstract(参考訳): ソーシャルロボットは、ユーザーや環境を理解するのに視覚を頼りにすることが多い。
コンピュータビジョンのためのデータ駆動アプローチの最近の進歩は、ソーシャルロボットの視覚知覚を強化するためにディープラーニングモデルを適用する大きな可能性を示している。
しかし,より資源効率のよい浅層学習モデルとは対照的に,ディープラーニング手法の高度な計算要求は,実世界のインタラクションやユーザエクスペリエンスに与える影響について重要な疑問を提起する。
ソーシャルロボットが深層学習に基づく視覚知覚モデルを採用すると、客観的相互作用性能と主観的ユーザ体験がどう影響するかは明らかでない。
ペッパーロボットの視覚知覚機能を改善するために最先端の人間の知覚・追跡モデルを用い,制御された実験研究と人工の人間とロボットのインタラクション研究を行い,この新たな知覚機能を評価した。
関連論文リスト
- On the Effect of Robot Errors on Human Teaching Dynamics [1.7249361224827533]
ロボットエラーの存在と重大さが、人間の教示力学の3次元にどのように影響するかを考察する。
結果は、人々はロボットにエラーを教えるのにより多くの時間を費やす傾向があることを示している。
対話型学習のための効果的なインタフェースを設計するための貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-09-15T19:02:34Z) - A Multi-Modal Explainability Approach for Human-Aware Robots in Multi-Party Conversation [39.87346821309096]
本稿では,従来のSOTAと比較して性能が向上したアドレス推定モデルを提案する。
また、上記のアーキテクチャに説明可能性と透明性を組み込むいくつかの方法を提案する。
論文 参考訳(メタデータ) (2024-05-20T13:09:32Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Perception for Humanoid Robots [10.560498559084449]
本稿では,ヒューマノイドロボットの認識分野における最近の発展と動向について概説する。
アプリケーションの主な領域は、内部状態推定、外部環境推定、人間ロボットのインタラクションである。
論文 参考訳(メタデータ) (2023-09-27T12:32:11Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。