論文の概要: Property-Aware Robot Object Manipulation: a Generative Approach
- arxiv url: http://arxiv.org/abs/2106.04385v1
- Date: Tue, 8 Jun 2021 14:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:37:46.379887
- Title: Property-Aware Robot Object Manipulation: a Generative Approach
- Title(参考訳): property-aware robot object manipulation: 生成的アプローチ
- Authors: Luca Garello and Linda Lastrico, Francesco Rea, Fulvio Mastrogiovanni,
Nicoletta Noceti and Alessandra Sciutti
- Abstract要約: 本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
- 参考スコア(独自算出の注目度): 57.70237375696411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When transporting an object, we unconsciously adapt our movement to its
properties, for instance by slowing down when the item is fragile. The most
relevant features of an object are immediately revealed to a human observer by
the way the handling occurs, without any need for verbal description. It would
greatly facilitate collaboration to enable humanoid robots to perform movements
that convey similar intuitive cues to the observers. In this work, we focus on
how to generate robot motion adapted to the hidden properties of the
manipulated objects, such as their weight and fragility. We explore the
possibility of leveraging Generative Adversarial Networks to synthesize new
actions coherent with the properties of the object. The use of a generative
approach allows us to create new and consistent motion patterns, without the
need of collecting a large number of recorded human-led demonstrations.
Besides, the informative content of the actions is preserved. Our results show
that Generative Adversarial Nets can be a powerful tool for the generation of
novel and meaningful transportation actions, which result effectively modulated
as a function of the object weight and the carefulness required in its
handling.
- Abstract(参考訳): 物体を輸送する際には、アイテムが壊れやすいときに減速することで、その特性に無意識に動きを適応させます。
対象の最も関連する特徴は、言語記述を必要とせず、処理の仕方によって直ちに人間の観察者に明らかにされる。
これは、ヒューマノイドロボットが観察者に同様の直感的な手がかりを伝える動きを行えるように、コラボレーションを大いに促進する。
本研究では,操作対象の重みや脆さといった隠れた特性に適応したロボットの動きを生成する方法に着目した。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性を検討する。
生成的アプローチを用いることで、多数の記録された人間主導のデモを収集することなく、新しい一貫した動きパターンを作成できる。
さらに、アクションのインフォメーション内容も保存される。
以上の結果から, 生成型対向性ネットは, 新規かつ有意義な輸送行動の生成に強力なツールとなり, 対象重量の関数やその処理に必要な注意力として効果的に調節されることが示唆された。
関連論文リスト
- Deep Active Visual Attention for Real-time Robot Motion Generation:
Emergence of Tool-body Assimilation and Adaptive Tool-use [9.141661467673817]
本稿では,人間の認知構造に触発された新しいロボットモーション生成モデルを提案する。
このモデルには状態駆動のアクティブなトップダウン視覚的注意モジュールが組み込まれており、タスクの状態に基づいてターゲットを積極的に変更することができる。
その結果、訓練されていない道具を装着したり、実験者の気遣いに晒されたりしても、安定した注意と動きを維持できるモデル視覚の柔軟性の向上が示唆された。
論文 参考訳(メタデータ) (2022-06-29T10:55:32Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Improving Object Permanence using Agent Actions and Reasoning [8.847502932609737]
既存のアプローチは、低レベルの知覚からオブジェクト永続性を学ぶ。
我々は、ロボットが実行された動作に関する知識を使用する場合、オブジェクトの永続性を改善することができると論じる。
論文 参考訳(メタデータ) (2021-10-01T07:09:49Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Object Properties Inferring from and Transfer for Human Interaction
Motions [51.896592493436984]
本稿では,人間のインタラクション動作のみからオブジェクト特性を推測する,きめ細かい動作認識手法を提案する。
我々は、慣性モーションキャプチャー装置を用いて、演奏者の多数のビデオと3D骨格の動きを収集する。
特に, 相互作用対象の重み, 脆弱性, デリカシーを推定することにより, 相互作用対象の同定を学習する。
論文 参考訳(メタデータ) (2020-08-20T14:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。