論文の概要: Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2208.00818v1
- Date: Mon, 1 Aug 2022 12:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:17:17.053305
- Title: Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習による3次元octree観測による月面把握の学習
- Authors: Andrej Orsula, Simon B{\o}gh, Miguel Olivares-Mendez and Carol
Martinez
- Abstract要約: 本研究では,月面物体の視覚に基づくロボットグリップにおける深部強化学習の適用性について検討する。
エージェントを困難な条件下で訓練するために、手続き的に生成されたデータセットを用いた新しいシミュレーション環境を作成する。
モデルなしの非政治的アクター批判アルゴリズムは、ポリシーのエンドツーエンド学習に使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extraterrestrial rovers with a general-purpose robotic arm have many
potential applications in lunar and planetary exploration. Introducing autonomy
into such systems is desirable for increasing the time that rovers can spend
gathering scientific data and collecting samples. This work investigates the
applicability of deep reinforcement learning for vision-based robotic grasping
of objects on the Moon. A novel simulation environment with
procedurally-generated datasets is created to train agents under challenging
conditions in unstructured scenes with uneven terrain and harsh illumination. A
model-free off-policy actor-critic algorithm is then employed for end-to-end
learning of a policy that directly maps compact octree observations to
continuous actions in Cartesian space. Experimental evaluation indicates that
3D data representations enable more effective learning of manipulation skills
when compared to traditionally used image-based observations. Domain
randomization improves the generalization of learned policies to novel scenes
with previously unseen objects and different illumination conditions. To this
end, we demonstrate zero-shot sim-to-real transfer by evaluating trained agents
on a real robot in a Moon-analogue facility.
- Abstract(参考訳): 汎用ロボットアームを備えた地球外ローバーは、月や惑星探査に多くの可能性を持つ。
このようなシステムに自律性を導入することは、ローバーが科学データを収集しサンプルを集める時間を増やすために望ましい。
本研究は,月面物体の視覚に基づくロボット把持における深層強化学習の適用性について検討する。
不均一な地形と厳しい照明を備えた非構造シーンにおいて,課題条件下でエージェントを訓練するために,手続き的に生成されたデータセットを用いた新しいシミュレーション環境を構築した。
モデルフリーのオフ・ポリシー・アクタ-クリティックアルゴリズムは、コンパクトなオツリー観測をカルテジアン空間の連続的なアクションに直接マップするポリシーのエンドツーエンド学習に使用される。
実験結果から,3次元データ表現は従来の画像に基づく観察と比較して,より効果的な操作スキルの学習を可能にすることが示唆された。
ドメインランダム化は、未確認のオブジェクトと異なる照明条件を持つ新しいシーンへの学習ポリシーの一般化を改善する。
そこで本研究では,実ロボットの訓練エージェントを評価することで,実機へのゼロショットsim-to-real転送を実証する。
関連論文リスト
- ManiBox: Enhancing Spatial Grasping Generalization via Scalable Simulation Data Generation [37.73074657448699]
bfManiBoxは、シミュレーションベースの教師学生フレームワーク上に構築された新しいバウンディングボックス誘導操作手法である。
ManiBoxは、空間的把握の一般化と多様なオブジェクトや背景への適応性を著しく改善した。
論文 参考訳(メタデータ) (2024-11-04T07:05:02Z) - Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Learning Object Placements For Relational Instructions by Hallucinating
Scene Representations [26.897316325189205]
単一入力画像から空間関係の集合に対する画素単位の物体配置確率を推定するための畳み込みニューラルネットワークを提案する。
本手法では,オブジェクトの画素関係確率や3次元モデルに対して,地上の真理データを必要としない。
実世界のデータと人間ロボット実験を用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-01-23T12:58:50Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。