論文の概要: On Robot Grasp Learning Using Equivariant Models
- arxiv url: http://arxiv.org/abs/2306.06489v1
- Date: Sat, 10 Jun 2023 17:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 18:44:07.022057
- Title: On Robot Grasp Learning Using Equivariant Models
- Title(参考訳): 等価モデルを用いたロボット把持学習について
- Authors: Xupeng Zhu, Dian Wang, Guanang Su, Ondrej Biza, Robin Walters and
Robert Platt
- Abstract要約: 実世界のグリップ検出は、ハードウェアのグリップダイナミックスとノイズによって困難である。
物理的ロボットの時間1.5時間未満で「スクラッチから把握」を学習できることが示される。
- 参考スコア(独自算出の注目度): 4.240899165468488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world grasp detection is challenging due to the stochasticity in grasp
dynamics and the noise in hardware. Ideally, the system would adapt to the real
world by training directly on physical systems. However, this is generally
difficult due to the large amount of training data required by most grasp
learning models. In this paper, we note that the planar grasp function is
$\SE(2)$-equivariant and demonstrate that this structure can be used to
constrain the neural network used during learning. This creates an inductive
bias that can significantly improve the sample efficiency of grasp learning and
enable end-to-end training from scratch on a physical robot with as few as
$600$ grasp attempts. We call this method Symmetric Grasp learning (SymGrasp)
and show that it can learn to grasp ``from scratch'' in less that 1.5 hours of
physical robot time.
- Abstract(参考訳): 実世界の把持検出は、把持ダイナミクスとハードウェアのノイズの確率性から困難である。
理想的には、システムは物理システムに直接トレーニングすることで現実世界に適応する。
しかし、ほとんどの学習モデルで必要とされる大量のトレーニングデータのために、これは一般的に難しい。
本稿では、平面把持関数が$\se(2)$-同変であることに注意し、学習中に使用されるニューラルネットワークを制約するためにこの構造が使用できることを示す。
これによってインダクティブバイアスが発生し、把持学習のサンプル効率が大幅に向上し、最大600ドルの把持試行で、物理的ロボット上でエンドツーエンドのトレーニングをスクラッチから行えるようになる。
我々はこの手法をSymGrasp Learning (SymGrasp)と呼び、物理的なロボット時間1.5時間以下で「スクラッチから」を学習できることを示します。
関連論文リスト
- Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Hindsight States: Blending Sim and Real Task Elements for Efficient
Reinforcement Learning [61.3506230781327]
ロボット工学では、第一原理から導かれた力学モデルに基づくシミュレーションに基づいて、トレーニングデータを生成する方法がある。
ここでは、力学の複雑さの不均衡を利用して、より標本効率のよい学習を行う。
提案手法をいくつかの課題に対して検証し,既存の近視アルゴリズムと組み合わせた場合の学習改善を実証する。
論文 参考訳(メタデータ) (2023-03-03T21:55:04Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Gradient-Based Trajectory Optimization With Learned Dynamics [80.41791191022139]
データからシステムの微分可能なダイナミクスモデルを学習するために、機械学習技術を使用します。
ニューラルネットワークは、大規模な時間的地平線に対して、非常に非線形な振る舞いを正確にモデル化できることが示される。
ハードウェア実験において、学習したモデルがSpotとRadio- controlled (RC)の両方の複雑な力学を表現できることを実証した。
論文 参考訳(メタデータ) (2022-04-09T22:07:34Z) - Dynamic Curriculum Learning for Low-Resource Neural Machine Translation [27.993407441922507]
低リソースNMTにおけるトレーニングデータの有効利用について検討する。
特に、トレーニングのトレーニングサンプルを並べ替えるための動的カリキュラム学習(DCL)手法を提案する。
これにより、現在のモデルが学ぶのに十分な能力を持つような簡単なサンプルをハイライトすることで、トレーニングが簡単になります。
論文 参考訳(メタデータ) (2020-11-30T08:13:41Z) - Fast Modeling and Understanding Fluid Dynamics Systems with
Encoder-Decoder Networks [0.0]
本研究では,有限体積シミュレータを用いて,高精度な深層学習に基づくプロキシモデルを効率的に教えることができることを示す。
従来のシミュレーションと比較して、提案したディープラーニングアプローチはより高速なフォワード計算を可能にする。
深層学習モデルの重要物理パラメータに対する感度を定量化することにより、インバージョン問題を大きな加速で解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-09T17:14:08Z) - Learning to Transfer Dynamic Models of Underactuated Soft Robotic Hands [15.481728234509227]
転送学習は、別のドメインのデータを活用することによって、あるドメインのデータ制限をバイパスする一般的なアプローチである。
いくつかの状況では、これは単に適応なしで変換されたモデルを使用するよりも、はるかにパフォーマンスが悪くなることを示します。
我々は、訓練された遷移モデルのリャプノフ指数の上界を導出し、この知見を利用する2つのアプローチを実証する。
論文 参考訳(メタデータ) (2020-05-21T01:46:59Z) - Never Stop Learning: The Effectiveness of Fine-Tuning in Robotic
Reinforcement Learning [109.77163932886413]
本稿では,ロボットによるロボット操作ポリシーを,政治以外の強化学習を通じて微調整することで,新たなバリエーションに適応する方法を示す。
この適応は、タスクをゼロから学習するために必要なデータの0.2%未満を使用する。
事前訓練されたポリシーを適用するという私たちのアプローチは、微調整の過程で大きなパフォーマンス向上につながります。
論文 参考訳(メタデータ) (2020-04-21T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。