論文の概要: Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2203.15640v2
- Date: Thu, 31 Mar 2022 11:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 12:10:37.659482
- Title: Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks
- Title(参考訳): 生成的逆ネットワークを用いたコミュニケーションロボット運動の合成と実行
- Authors: Luca Garello, Linda Lastrico, Alessandra Sciutti, Nicoletta Noceti,
Fulvio Mastrogiovanni and Francesco Rea
- Abstract要約: 我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
- 参考スコア(独自算出の注目度): 59.098560311521034
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Object manipulation is a natural activity we perform every day. How humans
handle objects can communicate not only the willfulness of the acting, or key
aspects of the context where we operate, but also the properties of the objects
involved, without any need for explicit verbal description. Since human
intelligence comprises the ability to read the context, allowing robots to
perform actions that intuitively convey this kind of information would greatly
facilitate collaboration. In this work, we focus on how to transfer on two
different robotic platforms the same kinematics modulation that humans adopt
when manipulating delicate objects, aiming to endow robots with the capability
to show carefulness in their movements. We choose to modulate the velocity
profile adopted by the robots' end-effector, inspired by what humans do when
transporting objects with different characteristics. We exploit a novel
Generative Adversarial Network architecture, trained with human kinematics
examples, to generalize over them and generate new and meaningful velocity
profiles, either associated with careful or not careful attitudes. This
approach would allow next generation robots to select the most appropriate
style of movement, depending on the perceived context, and autonomously
generate their motor action execution.
- Abstract(参考訳): オブジェクト操作は私たちが毎日実行する自然なアクティビティです。
人間がどのようにオブジェクトを扱うかは、行動の意志や操作するコンテキストの重要な側面だけでなく、明示的な言語記述を必要とせずに、関連するオブジェクトの特性を伝達することができる。
人間の知性はコンテキストを読み取る能力を備えているため、ロボットはこのような情報を直感的に伝達するアクションを実行できる。
本研究では、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当て、ロボットに動きに注意を示す能力を与える。
我々は、ロボットのエンドエフェクタが採用する速度プロファイルを、異なる特性を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人間の運動学の例で訓練された、新しい生成的敵対的ネットワークアーキテクチャを利用して、それらを一般化し、注意深い態度または注意深い態度に関連づけられた、新しい有意義な速度プロファイルを生成する。
このアプローチにより、次世代ロボットは知覚された文脈に応じて最も適切な動作スタイルを選択し、自律的に運動の実行を生成することができる。
関連論文リスト
- EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning [10.266351600604612]
本稿では,ヒューマノイドロボットにおける表現型動き列を生成するためのEMOTIONというフレームワークを提案する。
本研究では,EMOTIONが生成する動作の自然性と理解性を比較したオンラインユーザ研究を行い,その人間フィードバックバージョンであるEMOTION++について述べる。
論文 参考訳(メタデータ) (2024-10-30T17:22:45Z) - Built Different: Tactile Perception to Overcome Cross-Embodiment Capability Differences in Collaborative Manipulation [1.9048510647598207]
触覚は、人間とロボットのアシスタントの間で暗黙のコミュニケーションを行う強力な手段である。
本稿では,触覚がロボットシステム間での身体間差異をいかに超越させるかを検討する。
本研究では,ロボットと人間が協調して宇宙空間で物体を操る,協調作業を可能にする方法を示す。
論文 参考訳(メタデータ) (2024-09-23T10:45:41Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - Learning Bipedal Robot Locomotion from Human Movement [0.791553652441325]
本研究では、実世界の二足歩行ロボットに、モーションキャプチャーデータから直接の動きを教えるための強化学習に基づく手法を提案する。
本手法は,シミュレーション環境下でのトレーニングから,物理ロボット上での実行へシームレスに移行する。
本研究では,ダイナミックウォークサイクルから複雑なバランスや手振りに至るまでの動作を内製したヒューマノイドロボットについて実演する。
論文 参考訳(メタデータ) (2021-05-26T00:49:37Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。