論文の概要: Visionary: Vision architecture discovery for robot learning
- arxiv url: http://arxiv.org/abs/2103.14633v1
- Date: Fri, 26 Mar 2021 17:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:50:33.622634
- Title: Visionary: Vision architecture discovery for robot learning
- Title(参考訳): Visionary:ロボット学習のための視覚アーキテクチャ発見
- Authors: Iretiayo Akinola, Anelia Angelova, Yao Lu, Yevgen Chebotar, Dmitry
Kalashnikov, Jacob Varley, Julian Ibarz, Michael S. Ryoo
- Abstract要約: 低次元動作入力と高次元視覚入力の相互作用を検出するロボット操作学習のための視覚に基づくアーキテクチャ探索アルゴリズムを提案する。
提案手法は,タスクのトレーニング中にアーキテクチャを自動設計する - イメージ特徴表現をアクションと組み合わせ,参加する新しい方法と,それ以前のレイヤの機能とを組み合わせて発見する。
- 参考スコア(独自算出の注目度): 58.67846907923373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a vision-based architecture search algorithm for robot
manipulation learning, which discovers interactions between low dimension
action inputs and high dimensional visual inputs. Our approach automatically
designs architectures while training on the task - discovering novel ways of
combining and attending image feature representations with actions as well as
features from previous layers. The obtained new architectures demonstrate
better task success rates, in some cases with a large margin, compared to a
recent high performing baseline. Our real robot experiments also confirm that
it improves grasping performance by 6%. This is the first approach to
demonstrate a successful neural architecture search and attention connectivity
search for a real-robot task.
- Abstract(参考訳): 低次元動作入力と高次元視覚入力の相互作用を検出するロボット操作学習のための視覚に基づくアーキテクチャ探索アルゴリズムを提案する。
提案手法は,タスクのトレーニング中にアーキテクチャを自動設計する - イメージ特徴表現をアクションと組み合わせ,参加する新たな方法と,以前のレイヤの機能とを組み合わせて発見する。
得られた新しいアーキテクチャは、最近のハイパフォーマンスベースラインに比べて大きなマージンを持つ場合があり、タスクの成功率の向上を示している。
実際のロボット実験では、把持性能が6%向上していることも確認しました。
これは、実際のロボットタスクのニューラルネットワーク検索とアテンション接続検索を成功させる最初のアプローチである。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Enhancing Robot Learning through Learned Human-Attention Feature Maps [6.724036710994883]
ロボット学習にフォーカスポイントに関する補助情報を埋め込むことで、学習プロセスの効率性と堅牢性が向上すると考えられる。
本稿では,人間の注意を近似予測モデルでモデル化し,エミュレートするための新しいアプローチを提案する。
我々は,物体検出と模倣学習という2つの学習課題にアプローチを試行する。
論文 参考訳(メタデータ) (2023-08-29T14:23:44Z) - Exploring Visual Pre-training for Robot Manipulation: Datasets, Models
and Methods [14.780597545674157]
本稿では,3つの基本的視点から,視覚的事前学習がロボット操作作業に及ぼす影響について検討する。
自己教師型学習と教師型学習を組み合わせた視覚的事前学習方式Vi-PRoMを提案する。
論文 参考訳(メタデータ) (2023-08-07T14:24:52Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Physics-Guided Hierarchical Reward Mechanism for Learning-Based Robotic
Grasping [10.424363966870775]
我々は,学習効率と学習に基づく自律的把握の一般化性を向上させるために,階層的リワード機構を備えた物理誘導型深層強化学習を開発した。
本手法は3本指MICOロボットアームを用いたロボット把握作業において有効である。
論文 参考訳(メタデータ) (2022-05-26T18:01:56Z) - Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control [0.0]
この研究は、リレーショナル帰納バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入し、効率的な位置制御ポリシーを学習する。
我々は、画像符号化ネットワークによって生成された視覚シーンの低次元記述を用いて、ロボットの内部状態をモデル化するグラフ表現を導出する。
視覚的に現実的な3D環境下での6-DoFロボットアームのサンプル効率を向上させるためのモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-03-11T15:11:54Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。