論文の概要: Careful with That! Observation of Human Movements to Estimate Objects
Properties
- arxiv url: http://arxiv.org/abs/2103.01555v1
- Date: Tue, 2 Mar 2021 08:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:50:28.374279
- Title: Careful with That! Observation of Human Movements to Estimate Objects
Properties
- Title(参考訳): 気を付けて!
物性推定のための人の動きの観察
- Authors: Linda Lastrico, Alessandro Carf\`i, Alessia Vignolo, Alessandra
Sciutti, Fulvio Mastrogiovanni and Francesco Rea
- Abstract要約: 我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
- 参考スコア(独自算出の注目度): 106.925705883949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans are very effective at interpreting subtle properties of the partner's
movement and use this skill to promote smooth interactions. Therefore, robotic
platforms that support human partners in daily activities should acquire
similar abilities. In this work we focused on the features of human motor
actions that communicate insights on the weight of an object and the
carefulness required in its manipulation. Our final goal is to enable a robot
to autonomously infer the degree of care required in object handling and to
discriminate whether the item is light or heavy, just by observing a human
manipulation. This preliminary study represents a promising step towards the
implementation of those abilities on a robot observing the scene with its
camera. Indeed, we succeeded in demonstrating that it is possible to reliably
deduct if the human operator is careful when handling an object, through
machine learning algorithms relying on the stream of visual acquisition from
either a robot camera or from a motion capture system. On the other hand, we
observed that the same approach is inadequate to discriminate between light and
heavy objects.
- Abstract(参考訳): 人間はパートナーの動きの微妙な特性を解釈し、このスキルを使用してスムーズな相互作用を促進するのに非常に効果的です。
したがって、人間の活動を支援するロボットプラットフォームは、同様の能力を得る必要がある。
この研究では、物体の重さとその操作に必要な注意力についての洞察を伝える人間の運動行動の特徴に焦点を当てた。
最終目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測し、人間の操作を観察するだけで、そのアイテムが軽いか重いかを識別できるようにすることです。
この予備研究は、カメラでシーンを観察するロボットにこれらの能力を実装するための有望なステップである。
実際、ロボットカメラやモーションキャプチャシステムからの視覚的取得のストリームに依存する機械学習アルゴリズムを通じて、オブジェクトを処理する際に人間のオペレータが慎重であるかどうかを確実に控除できることを実証しました。
一方,光と重物体を区別するには同じアプローチが不十分であることがわかった。
関連論文リスト
- Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。