論文の概要: SwingBot: Learning Physical Features from In-hand Tactile Exploration
for Dynamic Swing-up Manipulation
- arxiv url: http://arxiv.org/abs/2101.11812v1
- Date: Thu, 28 Jan 2021 04:35:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:25:04.991692
- Title: SwingBot: Learning Physical Features from In-hand Tactile Exploration
for Dynamic Swing-up Manipulation
- Title(参考訳): SwingBot:動的スイングアップマニピュレーションのための手持ちの触覚探索から物理的特徴を学ぶ
- Authors: Chen Wang, Shaoxiong Wang, Branden Romero, Filipe Veiga, Edward
Adelson
- Abstract要約: 触覚探索によって保持物体の物理的特徴を学習できるロボットSwingBotを紹介する。
学習した物理的特徴により、エンドツーエンドの自己教師付き学習パイプラインは、目に見えない物体を振り上げる精度を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 10.565804740298754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several robot manipulation tasks are extremely sensitive to variations of the
physical properties of the manipulated objects. One such task is manipulating
objects by using gravity or arm accelerations, increasing the importance of
mass, center of mass, and friction information. We present SwingBot, a robot
that is able to learn the physical features of a held object through tactile
exploration. Two exploration actions (tilting and shaking) provide the tactile
information used to create a physical feature embedding space. With this
embedding, SwingBot is able to predict the swing angle achieved by a robot
performing dynamic swing-up manipulations on a previously unseen object. Using
these predictions, it is able to search for the optimal control parameters for
a desired swing-up angle. We show that with the learned physical features our
end-to-end self-supervised learning pipeline is able to substantially improve
the accuracy of swinging up unseen objects. We also show that objects with
similar dynamics are closer to each other on the embedding space and that the
embedding can be disentangled into values of specific physical properties.
- Abstract(参考訳): いくつかのロボット操作タスクは、操作対象の物理的性質の変化に非常に敏感である。
そのようなタスクの1つは、重力または腕の加速度を使用してオブジェクトを操作し、質量、質量の中心、および摩擦情報の重要性を高めます。
触覚探索によって保持された物体の物理的特徴を学習できるロボットであるswingbotを提案する。
2つの探索行動(傾きと揺れ)は、物理的特徴埋め込み空間を作るために使用される触覚情報を提供する。
この埋め込みにより、SwingBotは、これまで見えない物体上で動的にスイングアップ操作を行うロボットによって達成されたスイング角を予測することができる。
これらの予測を用いて、所望のスイングアップ角度に対する最適制御パラメータを探索することができる。
学習された物理機能により、エンドツーエンドの自己監視学習パイプラインは、見えない物体を揺るがす精度を大幅に向上させることができます。
また、同様のダイナミクスを持つ物体は埋め込み空間上で互いに近接しており、埋め込みは特定の物理的性質の値に切り離すことができることを示す。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - RoboPack: Learning Tactile-Informed Dynamics Models for Dense Packing [38.97168020979433]
本稿では, 視覚と触覚を組み合わせ, 触覚インフォームド・ダイナミックスモデルを学習することでロボット操作を実現するアプローチを提案する。
提案するフレームワークであるRoboPackは、オブジェクト状態を推定するために、リカレントグラフニューラルネットワークを使用している。
我々は,非包括的操作と密包装作業に対するソフトバブル触覚センサを備えた実ロボットへのアプローチを実証する。
論文 参考訳(メタデータ) (2024-07-01T16:08:37Z) - ManiFoundation Model for General-Purpose Robotic Manipulation of Contact Synthesis with Arbitrary Objects and Robots [24.035706461949715]
汎用ロボットが幅広い操作タスクをこなせるようなモデルを開発する必要がある。
本研究は,汎用ロボット操作の基礎モデルを構築するための包括的枠組みを導入する。
私たちのモデルは、平均的な成功率を約90%達成します。
論文 参考訳(メタデータ) (2024-05-11T09:18:37Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RoboCraft: Learning to See, Simulate, and Shape Elasto-Plastic Objects
with Graph Networks [32.00371492516123]
弾塑性物体のモデリングと操作のためのモデルベース計画フレームワークを提案する。
我々のシステムであるRoboCraftは、グラフニューラルネットワーク(GNN)を用いて粒子ベースの力学モデルを学び、基礎となるシステムの構造を捉える。
実世界のロボットインタラクションデータの10分で、ロボットは制御信号を合成し、弾塑性の物体を様々な形状に変形させるダイナミックスモデルを学習できることを示す。
論文 参考訳(メタデータ) (2022-05-05T20:28:15Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Zero-shot sim-to-real transfer of tactile control policies for
aggressive swing-up manipulation [5.027571997864706]
本稿では,視覚ベースの触覚センサを備えたロボットが,操作対象の物理的属性を事前に知ることなく動的操作を行うことができることを示す。
異なる質量、半径、長さの極を180度の角度に振り上げることができるロボットシステムが提示されています。
これは、高次元触覚観測からのフィードバックポリシーを用いて閉ループにおける極の揺らぎ操作を制御する最初の方法である。
論文 参考訳(メタデータ) (2021-01-07T18:43:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。