論文の概要: Learning to Autonomously Reach Objects with NICO and Grow-When-Required
Networks
- arxiv url: http://arxiv.org/abs/2210.07851v1
- Date: Fri, 14 Oct 2022 14:23:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:38:03.481411
- Title: Learning to Autonomously Reach Objects with NICO and Grow-When-Required
Networks
- Title(参考訳): NICOとGrowd-When-Required Networksでオブジェクトを自律的に取得する学習
- Authors: Nima Rahrakhshan, Matthias Kerzel, Philipp Allgeuer, Nicolas Duczek,
Stefan Wermter
- Abstract要約: 発達型ロボティクスアプローチは、物体到達作業のためのNICOプラットフォーム上での視覚的協調学習に使用される。
複数のGWR(Grow-When-Required)ネットワークは、より複雑なモーター動作の学習に使用される。
本研究では,ヒューマノイドロボットNICOが76%の成功率で物体に到達可能であることを示す。
- 参考スコア(独自算出の注目度): 12.106301681662655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The act of reaching for an object is a fundamental yet complex skill for a
robotic agent, requiring a high degree of visuomotor control and coordination.
In consideration of dynamic environments, a robot capable of autonomously
adapting to novel situations is desired. In this paper, a developmental
robotics approach is used to autonomously learn visuomotor coordination on the
NICO (Neuro-Inspired COmpanion) platform, for the task of object reaching. The
robot interacts with its environment and learns associations between motor
commands and temporally correlated sensory perceptions based on Hebbian
learning. Multiple Grow-When-Required (GWR) networks are used to learn
increasingly more complex motoric behaviors, by first learning how to direct
the gaze towards a visual stimulus, followed by learning motor control of the
arm, and finally learning how to reach for an object using eye-hand
coordination. We demonstrate that the model is able to deal with an unforeseen
mechanical change in the NICO's body, showing the adaptability of the proposed
approach. In evaluations of our approach, we show that the humanoid robot NICO
is able to reach objects with a 76% success rate.
- Abstract(参考訳): 物体に手を伸ばす行為は、ロボットエージェントにとって基本だが複雑な技術であり、高度な振動制御と協調を必要とする。
動的環境を考慮すると、新しい状況に自律的に適応できるロボットが望まれる。
本稿では,物体到達作業におけるNICO(Neuro-Inspired Companion)プラットフォーム上での視覚的協調を自律的に学習するための開発ロボティクス手法を提案する。
ロボットは環境と相互作用し、ヘビアン学習に基づいて運動指令と時間的に相関した感覚知覚の関係を学習する。
複数のGWR(Grow-When-Required)ネットワークは、まず視線を視覚刺激に向け、次に腕の運動制御を学習し、最後に目の協調を使って物体に到達する方法を学ぶことによって、より複雑な運動行動を学ぶために使用される。
提案手法の適応性を示すため,nicoの体における予期せぬ機械的変化をモデルが対処できることを実証した。
提案手法の評価では,ヒューマノイドロボットNICOが76%の成功率で物体に到達できることが示されている。
関連論文リスト
- Redefining Robot Generalization Through Interactive Intelligence [0.0]
ロボットファンデーションモデルは、リアルタイムの人間-ロボット共適応の複雑さを扱うために、インタラクティブなマルチエージェント視点に進化する必要がある、と我々は主張する。
シングルエージェントデザインを超えて、私たちの立場は、ロボット工学の基礎モデルがより堅牢でパーソナライズされ、予想されるパフォーマンスのレベルを達成する方法を強調しています。
論文 参考訳(メタデータ) (2025-02-09T17:13:27Z) - Dynamic Neural Curiosity Enhances Learning Flexibility for Autonomous Goal Discovery [0.0]
本稿では,Locus Coeruleus-Norepinephrineシステムからインスピレーションを得て,好奇心と注意の根源となることを提案する。
本研究では, ロボットアームを用いたロボットアームを, 様々な難易度を持つ物体の集合上で実験することにより, アプローチを適用した。
アーキテクチャは動的ニューラルネットワークでモデル化され、フォワードモデルと逆モデルを用いて目標の学習をサポートする。
論文 参考訳(メタデータ) (2024-11-29T06:37:23Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Deep Dive into Model-free Reinforcement Learning for Biological and Robotic Systems: Theory and Practice [17.598549532513122]
モデルフリー強化学習の数学的側面とアルゴリズム的側面を簡潔に表現する。
我々は,動物やロボットの行動に対するフィードバック制御のツールとして,テクスチタクタ・クリティカルな手法を用いた。
論文 参考訳(メタデータ) (2024-05-19T05:58:44Z) - Hierarchical generative modelling for autonomous robots [8.023920215148486]
人型ロボットが、移動、操作、把握の全体的利用を必要とする複雑なタスクを自律的に完了できることを示します。
具体的には、箱を回収して輸送し、ドアを通り抜けて目的地に到達し、接近し、サッカーを蹴ることのできるヒューマノイドロボットの能力を示すとともに、身体の損傷や地面の不規則性の存在下で頑健な性能を示す。
論文 参考訳(メタデータ) (2023-08-15T13:51:03Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - COCOI: Contact-aware Online Context Inference for Generalizable
Non-planar Pushing [87.7257446869134]
一般的なコンタクトリッチな操作問題は、ロボット工学における長年の課題である。
深層強化学習は、ロボット操作タスクの解決に大きな可能性を示している。
動的プロパティのコンテキスト埋め込みをオンラインにエンコードする深層RL法であるCOCOIを提案する。
論文 参考訳(メタデータ) (2020-11-23T08:20:21Z) - Robot Perception enables Complex Navigation Behavior via Self-Supervised
Learning [23.54696982881734]
本稿では、強化学習(RL)によるアクティブな目標駆動ナビゲーションタスクのためのロボット認識システムの統合手法を提案する。
提案手法は,1つの画像列から直接自己スーパービジョンを用いて得られる,コンパクトな動きと視覚知覚データを時間的に組み込む。
我々は,新しいインタラクティブなCityLearnフレームワークを用いて,実世界の運転データセットであるKITTIとOxford RobotCarのアプローチを実証した。
論文 参考訳(メタデータ) (2020-06-16T07:45:47Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。