論文の概要: Robust Robotic Control from Pixels using Contrastive Recurrent
State-Space Models
- arxiv url: http://arxiv.org/abs/2112.01163v1
- Date: Thu, 2 Dec 2021 12:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:03:18.269617
- Title: Robust Robotic Control from Pixels using Contrastive Recurrent
State-Space Models
- Title(参考訳): コントラストリカレント状態空間モデルを用いた画素からのロバストロボット制御
- Authors: Nitish Srivastava, Walter Talbott, Martin Bertran Lopez, Shuangfei
Zhai, Josh Susskind
- Abstract要約: 本研究では、画像などの高次元観測空間上で、制約のない環境で世界モデルを学習する方法を研究する。
困難の原因の1つは、無関係ではあるが、モデルによる背景の混乱の存在である。
我々は、次の観測を対照的に予測する反復潜時力学モデルを学ぶ。
このシンプルなモデルは、同時にカメラ、背景、色を逸脱しても驚くほど頑丈なロボット制御に繋がる。
- 参考スコア(独自算出の注目度): 8.22669535053079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modeling the world can benefit robot learning by providing a rich training
signal for shaping an agent's latent state space. However, learning world
models in unconstrained environments over high-dimensional observation spaces
such as images is challenging. One source of difficulty is the presence of
irrelevant but hard-to-model background distractions, and unimportant visual
details of task-relevant entities. We address this issue by learning a
recurrent latent dynamics model which contrastively predicts the next
observation. This simple model leads to surprisingly robust robotic control
even with simultaneous camera, background, and color distractions. We
outperform alternatives such as bisimulation methods which impose
state-similarity measures derived from divergence in future reward or future
optimal actions. We obtain state-of-the-art results on the Distracting Control
Suite, a challenging benchmark for pixel-based robotic control.
- Abstract(参考訳): 世界のモデリングは、エージェントの潜在状態空間を形作るための豊富なトレーニング信号を提供することで、ロボット学習に役立つ。
しかし,画像などの高次元観測空間上の制約のない環境での世界モデルを学ぶことは困難である。
難題の1つとして、無関係だが難解な背景障害や、タスク関連エンティティの重要でない視覚的詳細がある。
我々は,次の観測を対照的に予測する反復潜在力学モデルを学習することでこの問題に対処する。
このシンプルなモデルは、カメラ、背景、色覚の同時操作でも驚くほどロバストなロボット制御をもたらす。
我々は、将来の報酬のばらつきや将来の最適行動から得られる状態相似性対策を課すバイシミュレーション法などの代替手段より優れている。
我々は、pixelベースのロボット制御のための挑戦的なベンチマークであるsenseing control suiteで最新の結果を得た。
関連論文リスト
- Spatially Visual Perception for End-to-End Robotic Learning [33.490603706207075]
環境変動に対処するために3次元空間表現を利用する映像ベース空間認識フレームワークを提案する。
提案手法は,新しい画像拡張手法であるAugBlenderと,インターネット規模のデータに基づいてトレーニングされた最先端のモノクロ深度推定モデルを統合する。
論文 参考訳(メタデータ) (2024-11-26T14:23:42Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Model-Based Reinforcement Learning with Isolated Imaginations [61.67183143982074]
モデルに基づく強化学習手法であるIso-Dream++を提案する。
我々は、切り離された潜在的想像力に基づいて政策最適化を行う。
これにより、野生の混合力学源を孤立させることで、長い水平振動子制御タスクの恩恵を受けることができる。
論文 参考訳(メタデータ) (2023-03-27T02:55:56Z) - Real-to-Sim: Predicting Residual Errors of Robotic Systems with Sparse
Data using a Learning-based Unscented Kalman Filter [65.93205328894608]
我々は,動的・シミュレータモデルと実ロボット間の残差を学習する。
学習した残差誤差により、動的モデル、シミュレーション、および実際のハードウェア間の現実的ギャップをさらに埋めることができることを示す。
論文 参考訳(メタデータ) (2022-09-07T15:15:12Z) - Masked World Models for Visual Control [90.13638482124567]
視覚表現学習と動的学習を分離する視覚モデルに基づくRLフレームワークを提案する。
提案手法は,様々な視覚ロボット作業における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-06-28T18:42:27Z) - Learning Visible Connectivity Dynamics for Cloth Smoothing [17.24004979796887]
本稿では,部分点雲観測から粒子動力学モデルを学ぶことを提案する。
部分観測可能性の課題を克服するため, 基盤となる布網上にどの可視点が接続されているのかを推定する。
提案手法は,従来のモデルベースおよびモデルフリー強化学習法をシミュレーションで大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-05-21T15:03:29Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - CLOUD: Contrastive Learning of Unsupervised Dynamics [19.091886595825947]
コントラスト推定により、完全に教師のない方法で前方・逆ダイナミクスを学習することを提案する。
目標指向計画や観察からの模倣など,さまざまなタスクにまたがるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T15:42:57Z) - Counterfactual Explanation and Causal Inference in Service of Robustness
in Robot Control [15.104159722499366]
我々は「事象AがCの代わりにBを引き起こすように変更できるか?」という形式の逆実数条件の生成モデルを訓練するためのアーキテクチャを提案する。
従来の制御設計手法とは対照的に、ノイズを除去する能力の観点から頑健さを定量化する手法では、ある要件に違反する可能性のある反事実の空間を探索する。
論文 参考訳(メタデータ) (2020-09-18T14:22:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。