論文の概要: Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds
- arxiv url: http://arxiv.org/abs/2010.00824v4
- Date: Thu, 1 Jul 2021 00:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:18:31.697230
- Title: Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds
- Title(参考訳): 点雲を用いた6次元ロボットグラスピングのためのゴール補助的アクタ臨界
- Authors: Lirui Wang, Yu Xiang, Wei Yang, Arsalan Mousavian, Dieter Fox
- Abstract要約: 6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
- 参考スコア(独自算出の注目度): 62.013872787987054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D robotic grasping beyond top-down bin-picking scenarios is a challenging
task. Previous solutions based on 6D grasp synthesis with robot motion planning
usually operate in an open-loop setting, which are sensitive to grasp synthesis
errors. In this work, we propose a new method for learning closed-loop control
policies for 6D grasping. Our policy takes a segmented point cloud of an object
from an egocentric camera as input, and outputs continuous 6D control actions
of the robot gripper for grasping the object. We combine imitation learning and
reinforcement learning and introduce a goal-auxiliary actor-critic algorithm
for policy learning. We demonstrate that our learned policy can be integrated
into a tabletop 6D grasping system and a human-robot handover system to improve
the grasping performance of unseen objects. Our videos and code can be found at
https://sites.google.com/view/gaddpg .
- Abstract(参考訳): トップダウンのビンピッキングシナリオを超えた6dロボットの把持は難しい課題だ。
ロボットの動き計画による6次元把持合成に基づく以前の解は、通常開ループで動作し、これは把持合成誤差に敏感である。
本研究では,6次元把握のための閉ループ制御ポリシを学習する新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体の分割点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
模倣学習と強化学習を組み合わせることで,政策学習のためのゴール・オーバショナリー・アクタ・クリティックアルゴリズムを提案する。
我々は,学習方針をテーブルトップ6次元把握システムと人間ロボットハンドオーバシステムに統合し,未知物体の把握性能を向上させることを実証した。
私たちのビデオとコードはhttps://sites.google.com/view/gaddpg で見ることができます。
関連論文リスト
- Large-Scale Actionless Video Pre-Training via Discrete Diffusion for
Efficient Policy Learning [73.69573252516761]
本稿では,人間のビデオにおける生成前訓練とアクションラベル付きロボットビデオのポリシー微調整を組み合わせた新しいフレームワークを提案する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - Learning to Act from Actionless Videos through Dense Correspondences [87.1243107115642]
本稿では,様々なロボットや環境にまたがる多様なタスクを確実に実行可能なビデオベースのロボットポリシーを構築するためのアプローチを提案する。
本手法は,ロボットの目標を指定するための汎用表現として,状態情報と行動情報の両方を符号化するタスク非依存表現として画像を利用する。
テーブルトップ操作とナビゲーションタスクの学習方針における我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-10-12T17:59:23Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - HACMan: Learning Hybrid Actor-Critic Maps for 6D Non-Prehensile
Manipulation [31.13382520365054]
本稿では6次元非包括的操作のための強化学習手法であるHybrid Actor-Critic Maps for Manipulation (HACMan)を紹介する。
シミュレーションおよび実世界における6次元オブジェクトポーズアライメントタスクにおけるHACManの評価を行った。
代替アクション表現と比較して、HACManは最高のベースラインの3倍以上の成功率を達成する。
論文 参考訳(メタデータ) (2023-05-06T05:55:27Z) - Decoupling Skill Learning from Robotic Control for Generalizable Object
Manipulation [35.34044822433743]
ロボット操作の最近の研究は、様々なタスクに取り組む可能性を示している。
これは関節制御のための高次元の作用空間によるものであると推測する。
本稿では,「何をすべきか」を「どうやるか」から「どうやるか」を学習するタスクを,別のアプローチで分離する。
ロボットキネマティック・コントロールは、作業空間のゴールに到達するために高次元の関節運動を実行するように最適化されている。
論文 参考訳(メタデータ) (2023-03-07T16:31:13Z) - Review on 6D Object Pose Estimation with the focus on Indoor Scene
Understanding [0.0]
6Dオブジェクトのポーズ推定問題はコンピュータビジョンとロボティクスの分野で広く研究されている。
議論の一環として、我々は6Dオブジェクトのポーズ推定が3Dシーンの理解にどのように役立つかに焦点を当てる。
論文 参考訳(メタデータ) (2022-12-04T20:45:46Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Learning to Fold Real Garments with One Arm: A Case Study in Cloud-Based
Robotics Research [21.200764836237497]
物理ハードウェア上でのファブリック操作アルゴリズムのシステマティックなベンチマークを行う。
専門家の行動、キーポイント、報酬関数、動的動きをモデル化する4つの新しい学習ベースアルゴリズムを開発した。
データ収集、モデルトレーニング、およびポリシー評価のライフサイクル全体は、ロボットワークセルへの物理的アクセスなしに遠隔で実行される。
論文 参考訳(メタデータ) (2022-04-21T17:31:20Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z) - Learning a generative model for robot control using visual feedback [7.171234436165255]
本稿では,ロボット制御に視覚フィードバックを取り入れた新しい定式化を提案する。
モデルにおける推論により,特徴のターゲット位置に対応するロボット状態を推測することができる。
本研究では,不正確な制御を行うロボットに対して,握りとタイトな挿入を実行することで,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-03-10T00:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。