論文の概要: ArrayBot: Reinforcement Learning for Generalizable Distributed
Manipulation through Touch
- arxiv url: http://arxiv.org/abs/2306.16857v1
- Date: Thu, 29 Jun 2023 11:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 13:48:52.925036
- Title: ArrayBot: Reinforcement Learning for Generalizable Distributed
Manipulation through Touch
- Title(参考訳): ArrayBot: Touchによる汎用分散操作のための強化学習
- Authors: Zhengrong Xue, Han Zhang, Jingwen Cheng, Zhengmao He, Yuanchen Ju,
Changyi Lin, Gu Zhang, Huazhe Xu
- Abstract要約: ArrayBotは、触覚センサーと統合された垂直にスライドする柱からなる分散操作システムである。
我々は、制御ポリシーの自動発見に強化学習アルゴリズムを利用する。
本稿では,分散操作のためのArrayBot上でのRLの膨大な可能性を示す,実世界の操作タスクを多数提示する。
- 参考スコア(独自算出の注目度): 13.508561168512058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ArrayBot, a distributed manipulation system consisting of a $16
\times 16$ array of vertically sliding pillars integrated with tactile sensors,
which can simultaneously support, perceive, and manipulate the tabletop
objects. Towards generalizable distributed manipulation, we leverage
reinforcement learning (RL) algorithms for the automatic discovery of control
policies. In the face of the massively redundant actions, we propose to reshape
the action space by considering the spatially local action patch and the
low-frequency actions in the frequency domain. With this reshaped action space,
we train RL agents that can relocate diverse objects through tactile
observations only. Surprisingly, we find that the discovered policy can not
only generalize to unseen object shapes in the simulator but also transfer to
the physical robot without any domain randomization. Leveraging the deployed
policy, we present abundant real-world manipulation tasks, illustrating the
vast potential of RL on ArrayBot for distributed manipulation.
- Abstract(参考訳): 本稿では,触覚センサと一体化した16ドル16セントの縦スライド柱からなる分散操作システムであるArrayBotを紹介し,テーブルトップオブジェクトを同時にサポートし,知覚し,操作することができる。
分散操作を一般化するために,強化学習(rl)アルゴリズムを用いて制御ポリシの自動発見を行う。
大規模冗長動作に対して,周波数領域における空間的局所的動作パッチと低周波動作を考慮し,動作空間の再形成を提案する。
このリフォームされたアクション空間では、触覚観察のみを通して様々な物体を移動させることができるRLエージェントを訓練する。
驚くべきことに、発見されたポリシーはシミュレータで見えない物体の形に一般化できるだけでなく、ドメインのランダム化なしに物理的なロボットに転送できる。
デプロイされたポリシを活用することで、分散操作のためのarraybot上のrlの膨大な可能性を示す、豊富な実世界の操作タスクを提供する。
関連論文リスト
- Cross-Embodiment Robot Manipulation Skill Transfer using Latent Space Alignment [24.93621734941354]
本稿では,形態の異なるロボットマニピュレータ間の制御ポリシの伝達に着目した。
主要な洞察は、ソースとターゲットロボットの状態と行動空間を共通の潜在空間表現に投影することである。
我々は、異なる状態、行動、実施形態のソースとターゲットロボットによるシム・トゥ・シム・トゥ・シム・トゥ・シム・トゥ・リアルな操作ポリシーの伝達を実証する。
論文 参考訳(メタデータ) (2024-06-04T05:00:24Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Nonprehensile Planar Manipulation through Reinforcement Learning with
Multimodal Categorical Exploration [8.343657309038285]
強化学習はそのようなロボットコントローラを開発するための強力なフレームワークである。
分類分布を用いたマルチモーダル探索手法を提案する。
学習したポリシは外部の障害や観測ノイズに対して堅牢であり、複数のプッシュ器でタスクにスケールできることが示される。
論文 参考訳(メタデータ) (2023-08-04T16:55:00Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - CLAS: Coordinating Multi-Robot Manipulation with Central Latent Action
Spaces [9.578169216444813]
本稿では,異なるエージェント間で共有される学習された潜在行動空間を通じて,マルチロボット操作を協調する手法を提案する。
シミュレーションされたマルチロボット操作タスクにおいて本手法を検証し,サンプル効率と学習性能の観点から,従来のベースラインよりも改善したことを示す。
論文 参考訳(メタデータ) (2022-11-28T23:20:47Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - RGB-Only Reconstruction of Tabletop Scenes for Collision-Free
Manipulator Control [71.51781695764872]
世界のRGBビューのみを用いたロボットマニピュレータの無衝突制御システムを提案する。
テーブルトップシーンの知覚入力は、ロボットエンドエフェクタにハンドヘルドまたは装着されたRGBカメラの複数の画像によって提供される。
シーンの3次元形状を再構成するために、NeRFのようなプロセスが使用され、そこからユークリッド完全符号距離関数(ESDF)が計算される。
次に、モデル予測制御アルゴリズムを用いてマニピュレータを制御し、ESDFの障害物を避けながら所望のポーズに達する。
論文 参考訳(メタデータ) (2022-10-21T01:45:08Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。