論文の概要: Learning Whole-Body Human-Robot Haptic Interaction in Social Contexts
- arxiv url: http://arxiv.org/abs/2005.12508v1
- Date: Tue, 26 May 2020 03:44:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 23:49:00.410490
- Title: Learning Whole-Body Human-Robot Haptic Interaction in Social Contexts
- Title(参考訳): 社会的文脈における人間-ロボットの触覚相互作用の学習
- Authors: Joseph Campbell, Katsu Yamane
- Abstract要約: 本稿では,全ロボット体上での全身触覚接触を含む人間とロボットの社会的相互作用を教えるためのLfD(Learning-from-demonstration)フレームワークを提案する。
既存のLfDフレームワークの性能は、高次元データ空間性のためにこのような相互作用に苦しむ。
この疎度を活用することで,有意な精度のペナルティを伴わずにデータ次元を削減できることを示し,それを実現するための3つの戦略を紹介した。
- 参考スコア(独自算出の注目度): 11.879852629248981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a learning-from-demonstration (LfD) framework for
teaching human-robot social interactions that involve whole-body haptic
interaction, i.e. direct human-robot contact over the full robot body. The
performance of existing LfD frameworks suffers in such interactions due to the
high dimensionality and spatiotemporal sparsity of the demonstration data. We
show that by leveraging this sparsity, we can reduce the data dimensionality
without incurring a significant accuracy penalty, and introduce three
strategies for doing so. By combining these techniques with an LfD framework
for learning multimodal human-robot interactions, we can model the
spatiotemporal relationship between the tactile and kinesthetic information
during whole-body haptic interactions. Using a teleoperated bimanual robot
equipped with 61 force sensors, we experimentally demonstrate that a model
trained with 121 sample hugs from 4 participants generalizes well to unseen
inputs and human partners.
- Abstract(参考訳): 本稿では,全ロボット体上での直接的人間ロボット接触を含む,人間とロボットの社会的相互作用を教えるための,LfD(Learning-from-demonstration)フレームワークを提案する。
既存のLfDフレームワークの性能は、実演データの高次元性と時空間性のためにこのような相互作用に苦しむ。
この疎度を活用することで,有意な精度のペナルティを伴わずにデータ次元を削減できることを示し,それを実現するための3つの戦略を紹介した。
これらの手法とマルチモーダルな人間とロボットの相互作用を学習するためのLfDフレームワークを組み合わせることで、触覚情報と身体の触覚情報の時空間的関係をモデル化することができる。
61個の力センサを備えた遠隔操作型バイマニュアルロボットを用いて、4人の被験者から121個のサンプルハグで訓練されたモデルが、見当たらない入力や人間のパートナーによく一般化できることを実験的に実証した。
関連論文リスト
- MoVEInt: Mixture of Variational Experts for Learning Human-Robot Interactions from Demonstrations [19.184155232662995]
我々は,人間-ロボットインタラクション(HRI)のための共有潜在空間表現学習のための新しいアプローチを提案する。
本研究では,情報的潜在空間を用いて,ロボットの動きを正規化するための変分オートエンコーダ(VAE)を訓練する。
VAEにおける人間の観察に先立って情報的MDNを使用するアプローチは,より正確なロボットの動きを生成する。
論文 参考訳(メタデータ) (2024-07-10T13:16:12Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - Learning Multimodal Latent Dynamics for Human-Robot Interaction [19.803547418450236]
本稿では,ヒト-ヒトインタラクション(HHI)から協調型人間-ロボットインタラクション(HRI)を学習する方法を提案する。
本研究では,隠れマルコフモデル(HMM)を変分オートエンコーダの潜在空間として用いて,相互作用するエージェントの結合分布をモデル化するハイブリッドアプローチを考案する。
ユーザが私たちのメソッドを,より人間らしく,タイムリーで,正確なものと認識し,他のベースラインよりも高い優先度でメソッドをランク付けすることが分かりました。
論文 参考訳(メタデータ) (2023-11-27T23:56:59Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - MILD: Multimodal Interactive Latent Dynamics for Learning Human-Robot
Interaction [34.978017200500005]
我々は,HRI(Human-Robot Interactions)の問題に対処するために,MILD(Multimodal Interactive Latent Dynamics)を提案する。
変分オートエンコーダ(VAE)の潜時空間における相互作用エージェントの結合分布をモデル化するために,Hidden Semi-Markov Models (HSMMs) を用いて実演から相互作用ダイナミクスを学習する。
MILDは、観察されたエージェント(人間の)軌道に条件付けされたときに、制御されたエージェント(ロボット)に対してより正確な軌道を生成する。
論文 参考訳(メタデータ) (2022-10-22T11:25:11Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - A MultiModal Social Robot Toward Personalized Emotion Interaction [1.2183405753834562]
本研究では,ロボットインタラクションポリシーを強化するために,強化学習を伴うマルチモーダルヒューマンロボットインタラクション(HRI)フレームワークを実証する。
目標は、ロボットがより自然で魅力的なHRIフレームワークを作れるように、このフレームワークを社会シナリオに適用することだ。
論文 参考訳(メタデータ) (2021-10-08T00:35:44Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。