論文の概要: Enhancing a Neurocognitive Shared Visuomotor Model for Object
Identification, Localization, and Grasping With Learning From Auxiliary Tasks
- arxiv url: http://arxiv.org/abs/2009.12674v1
- Date: Sat, 26 Sep 2020 19:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 09:11:45.776469
- Title: Enhancing a Neurocognitive Shared Visuomotor Model for Object
Identification, Localization, and Grasping With Learning From Auxiliary Tasks
- Title(参考訳): 補助課題からの学習による物体識別・局在化・把握のための神経認知的共有視覚運動モデルの拡張
- Authors: Matthias Kerzel (1), Fares Abawi (1), Manfred Eppe (1), Stefan Wermter
(1) ((1) University of Hamburg)
- Abstract要約: 本稿では,複数の物体を持つシーンにおいて,対象物を識別,局所化,把握するロボット作業のための統合型視覚神経モデルについて追従する。
我々のRetinanetベースのモデルは、生物学的にインスパイアされた発達アプローチで、視覚運動能力のエンドツーエンドのトレーニングを可能にします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a follow-up study on our unified visuomotor neural model for the
robotic tasks of identifying, localizing, and grasping a target object in a
scene with multiple objects. Our Retinanet-based model enables end-to-end
training of visuomotor abilities in a biologically inspired developmental
approach. In our initial implementation, a neural model was able to grasp
selected objects from a planar surface. We embodied the model on the NICO
humanoid robot. In this follow-up study, we expand the task and the model to
reaching for objects in a three-dimensional space with a novel dataset based on
augmented reality and a simulation environment. We evaluate the influence of
training with auxiliary tasks, i.e., if learning of the primary visuomotor task
is supported by learning to classify and locate different objects. We show that
the proposed visuomotor model can learn to reach for objects in a
three-dimensional space. We analyze the results for biologically-plausible
biases based on object locations or properties. We show that the primary
visuomotor task can be successfully trained simultaneously with one of the two
auxiliary tasks. This is enabled by a complex neurocognitive model with shared
and task-specific components, similar to models found in biological systems.
- Abstract(参考訳): 本稿では,複数の物体を持つシーンにおいて,対象物を識別,局所化,把握するロボット作業のための統合型視覚神経モデルについて追従する。
我々のRetinanetベースのモデルは、生物学的にインスパイアされた発達アプローチで、視覚運動能力のエンドツーエンドトレーニングを可能にする。
最初の実装では、神経モデルは平面面から選択された物体を把握できた。
我々はNICOヒューマノイドロボットのモデルを具現化した。
本研究は,拡張現実とシミュレーション環境に基づく新しいデータセットを用いて,物体の3次元空間への到達にタスクとモデルを拡張したものである。
補助タスクによる学習の影響,すなわち,主視的タスクの学習が,異なる対象を分類・同定する学習によって支援されているかを評価する。
提案手法により,3次元空間における物体の到達を学習できることを示す。
対象の場所や特性に基づいて生物学的に評価可能なバイアスについて結果を分析する。
本稿では,2つの補助課題のうちの1つと同時に,主動作タスクの訓練を成功させることを示す。
これは、生物学的システムに見られるモデルと同様、共有およびタスク固有のコンポーネントを持つ複雑な神経認知モデルによって実現される。
関連論文リスト
- Towards a "universal translator" for neural dynamics at single-cell, single-spike resolution [10.49121904052395]
我々は、複数の脳領域にまたがる多様なタスクを解決できる、神経スパイクデータのための最初の基礎モデルを構築する。
予測タスクには、単一ニューロンとリージョンレベルのアクティビティ予測、前方予測、行動復号化などがある。
論文 参考訳(メタデータ) (2024-07-19T21:05:28Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Lifelong 3D Object Recognition and Grasp Synthesis Using Dual Memory
Recurrent Self-Organization Networks [0.0]
人間は、これまで得られた知識を忘れずに、生涯にわたって新しい物体を認識し、操作することを学ぶ。
ほとんどの従来のディープニューラルネットワークでは、破滅的な忘れの問題のため、これは不可能である。
本稿では,物体認識と把握を同時に行うために,デュアルメモリリカレントニューラルネットワークとオートエンコーダを組み合わせたハイブリッドモデルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-09-23T11:14:13Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Reinforcement Learning for Sparse-Reward Object-Interaction Tasks in a
First-person Simulated 3D Environment [73.9469267445146]
高忠実な3Dシミュレーション環境において、AI2Thorのような一対一のオブジェクトインタラクションタスクは、強化学習エージェントに顕著なサンプル効率の課題をもたらす。
補助的なタスクとして注意的オブジェクトモデルを学ぶことで、監督なしに、ゼロからオブジェクトインタラクションタスクを学習できることが示される。
論文 参考訳(メタデータ) (2020-10-28T19:27:26Z) - Understanding Information Processing in Human Brain by Interpreting
Machine Learning Models [1.14219428942199]
この論文は、ニューラルネットワークの直感的な計算モデルを作成する上で、機械学習メソッドが果たす役割を探求している。
この視点は、コンピュータ神経科学に対する探索的およびデータ駆動のアプローチが果たす大きな役割を支持する。
論文 参考訳(メタデータ) (2020-10-17T04:37:26Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。