論文の概要: Bridging the Last Mile in Sim-to-Real Robot Perception via Bayesian
Active Learning
- arxiv url: http://arxiv.org/abs/2109.11547v1
- Date: Thu, 23 Sep 2021 14:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 06:55:56.820308
- Title: Bridging the Last Mile in Sim-to-Real Robot Perception via Bayesian
Active Learning
- Title(参考訳): ベイジアン能動学習によるロボット知覚における最後のマイルのブリッジ
- Authors: Jianxiang Feng, Jongseok Lee, Maximilian Durner, Rudolph Triebel
- Abstract要約: 本研究では,ベイジアン能動学習に基づくパイプラインを提案し,手動アノテーションの取り組みを最小化することを目的とする。
本研究では,2つのオブジェクト検出データ集合に対する実験により,同値ギャップを埋めるために必要なラベル付けの労力を小さめに抑えることができることを示した。
- 参考スコア(独自算出の注目度): 34.910660020436424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from synthetic data is popular in avariety of robotic vision tasks
such as object detection, becauselarge amount of data can be generated without
annotationsby humans. However, when relying only on synthetic data,we encounter
the well-known problem of the simulation-to-reality (Sim-to-Real) gap, which is
hard to resolve completelyin practice. For such cases, real human-annotated
data isnecessary to bridge this gap, and in our work we focus on howto acquire
this data efficiently. Therefore, we propose a Sim-to-Real pipeline that relies
on deep Bayesian active learningand aims to minimize the manual annotation
efforts. We devisea learning paradigm that autonomously selects the data thatis
considered useful for the human expert to annotate. Toachieve this, a Bayesian
Neural Network (BNN) object detectorproviding reliable uncertain estimates is
adapted to infer theinformativeness of the unlabeled data, in order to
performactive learning. In our experiments on two object detectiondata sets, we
show that the labeling effort required to bridge thereality gap can be reduced
to a small amount. Furthermore, wedemonstrate the practical effectiveness of
this idea in a graspingtask on an assistive robot.
- Abstract(参考訳): 人工データからの学習は、人間のアノテーションなしで大量のデータを生成することができるため、物体検出などのロボットビジョンタスクで一般的である。
しかし, 合成データのみに依存する場合, シミュレーションと現実(sim-to-real)のギャップの既知の問題に遭遇し, 完全に解決することは困難である。
このような場合、実際の人間による注釈付きデータは、このギャップを埋めるために必要であり、我々の研究では、このデータを効率的に取得する方法にフォーカスしています。
そこで本研究では,ベイジアン能動学習に基づくシム・トゥ・リアルパイプラインを提案し,手動アノテーションの取り組みを最小化することを目的とする。
我々は、人間が注釈を付けるのに役立つと考えられるデータを自律的に選択する学習パラダイムを考案した。
これを実現するために、信頼できる不確実性推定を提供するベイズニューラルネットワーク(bnn)オブジェクト検出器を用いて、ラベルなしデータの非形成性を推定し、アクティブな学習を行う。
2つのオブジェクト検出データセットに関する実験で、そのギャップを埋めるのに必要なラベリングの労力を少量に削減できることを示しました。
さらに,支援ロボットのグリーディングタスクにおいて,このアイデアの有効性を実証する。
関連論文リスト
- Information-driven Affordance Discovery for Efficient Robotic Manipulation [14.863105174430087]
環境との双方向な相互作用はこの問題を軽減することができると我々は主張する。
我々は,本手法の理論的正当性を提供し,シミュレーションと実世界の課題の両方において,そのアプローチを実証的に検証する。
IDAをダブした本手法は,複数のアクションプリミティブに対する視覚的アベイランスの効率的な発見を可能にする。
論文 参考訳(メタデータ) (2024-05-06T21:25:51Z) - Learning Sim-to-Real Dense Object Descriptors for Robotic Manipulation [4.7246285569677315]
我々はSim-to-Real Dense Object Nets(SRDONs)という,オブジェクトを適切な表現で理解するだけでなく,シミュレートされた実データをピクセル整合性を持った統一された特徴空間にマップする,高密度オブジェクト記述子を提案する。
本研究では,事前学習したSRDONが実世界の訓練をゼロにした各種ロボット作業において,見えない物体や見えない視覚環境の性能を著しく向上させる実験を行った。
論文 参考訳(メタデータ) (2023-04-18T02:28:55Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Generating Annotated Training Data for 6D Object Pose Estimation in
Operational Environments with Minimal User Interaction [1.0044401320520304]
本稿では,6次元物体ポーズ推定のためのアノテートトレーニングデータを自動生成する新しい手法に対する概念実証を行う。
このアプローチは、運用環境で新しいオブジェクトを学習すると同時に、ほとんどインタラクションを必要とせず、ユーザの部分に関する専門知識も必要としないように設計されている。
論文 参考訳(メタデータ) (2021-03-17T14:46:21Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。