論文の概要: Quick and Accurate Affordance Learning
- arxiv url: http://arxiv.org/abs/2405.07816v1
- Date: Mon, 13 May 2024 14:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 13:15:58.832626
- Title: Quick and Accurate Affordance Learning
- Title(参考訳): クイック・クイック・アフォーマンス・ラーニング
- Authors: Fedor Scholz, Erik Ayari, Johannes Bertram, Martin V. Butz,
- Abstract要約: 幼児は自分の環境で積極的に学習し、独自の学習カリキュラムを形成する。
ここでは、ディープラーニングアーキテクチャを用いて、このような振る舞いをモデル化する。
推論プロセスは、シミュレートされたエージェントを、余裕に関連した知識の獲得を期待する領域へ積極的に移動させる。
- 参考スコア(独自算出の注目度): 2.2499166814992444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infants learn actively in their environments, shaping their own learning curricula. They learn about their environments' affordances, that is, how local circumstances determine how their behavior can affect the environment. Here we model this type of behavior by means of a deep learning architecture. The architecture mediates between global cognitive map exploration and local affordance learning. Inference processes actively move the simulated agent towards regions where they expect affordance-related knowledge gain. We contrast three measures of uncertainty to guide this exploration: predicted uncertainty of a model, standard deviation between the means of several models (SD), and the Jensen-Shannon Divergence (JSD) between several models. We show that the first measure gets fooled by aleatoric uncertainty inherent in the environment, while the two other measures focus learning on epistemic uncertainty. JSD exhibits the most balanced exploration strategy. From a computational perspective, our model suggests three key ingredients for coordinating the active generation of learning curricula: (1) Navigation behavior needs to be coordinated with local motor behavior for enabling active affordance learning. (2) Affordances need to be encoded locally for acquiring generalized knowledge. (3) Effective active affordance learning mechanisms should use density comparison techniques for estimating expected knowledge gain. Future work may seek collaborations with developmental psychology to model active play in children in more realistic scenarios.
- Abstract(参考訳): 幼児は自分の環境で積極的に学習し、独自の学習カリキュラムを形成する。
環境の可利用性、すなわち、環境にどのように影響するかを地域環境がどのように決定するかを学ぶ。
ここでは、ディープラーニングアーキテクチャを用いて、このような振る舞いをモデル化する。
このアーキテクチャは、グローバル認知地図探索とローカルアベイランス学習の間を仲介する。
推論プロセスは、シミュレートされたエージェントを、余裕に関連した知識の獲得を期待する領域へ積極的に移動させる。
モデルの不確かさの予測,いくつかのモデル(SD)間の標準偏差,およびいくつかのモデル間のJensen-Shannon Divergence(JSD)の3つの指標を比較した。
以上の結果から,第1の尺度は環境に固有のアレタリック不確実性によって騙され,他の2つの尺度はてんかん不確実性に焦点をあてる。
JSDは最もバランスの取れた探査戦略を示す。
計算的観点から,本モデルは,学習カリキュラムのアクティブな生成をコーディネートするための3つの重要な要素を示唆する。
2) 一般知識の獲得には,局所的に知識を符号化する必要がある。
3)有効能率学習機構は,期待される知識獲得を推定するために密度比較手法を用いるべきである。
将来の仕事は、より現実的なシナリオで子供たちの活発な遊びをモデル化するために、発達心理学とのコラボレーションを求めるかもしれない。
関連論文リスト
- Chaos-based reinforcement learning with TD3 [3.04503073434724]
カオスに基づく強化学習(CBRL)は、エージェントの内部カオス力学が探索を促進する方法である。
この研究は、最先端の深層強化学習アルゴリズムの一つであるTD3(Twin Delayed Deep Deterministic Policy Gradients)を導入した。
論文 参考訳(メタデータ) (2024-05-15T04:47:31Z) - Evolving Reservoirs for Meta Reinforcement Learning [1.6874375111244329]
本稿では,そのようなプロセスを実現する機構を研究するための計算モデルを提案する。
進化のスケールでは、リカレントニューラルネットワークの族である貯水池を進化させます。
我々は、強化学習(RL)を通じた行動政策の学習を容易にするために、これらの進化した貯水池を利用する。
以上の結果から,貯水池の進化は多様な課題の学習を改善することが示唆された。
論文 参考訳(メタデータ) (2023-12-09T16:11:48Z) - Dealing with uncertainty: balancing exploration and exploitation in deep
recurrent reinforcement learning [0.0]
環境に関する不完全な知識は、不確実性の下で意思決定を行うエージェントを導く。
強化学習(Reinforcement Learning, RL)では、自律的なエージェントが2つの対照的なニーズのバランスを取る必要がある。
適応的手法は、探索と搾取の間のトレードオフを近似した方がよいことを示す。
論文 参考訳(メタデータ) (2023-10-12T13:45:33Z) - Interpretable Imitation Learning with Dynamic Causal Relations [65.18456572421702]
得られた知識を有向非巡回因果グラフの形で公開することを提案する。
また、この因果発見プロセスを状態依存的に設計し、潜在因果グラフのダイナミクスをモデル化する。
提案するフレームワークは,動的因果探索モジュール,因果符号化モジュール,予測モジュールの3つの部分から構成され,エンドツーエンドで訓練される。
論文 参考訳(メタデータ) (2023-09-30T20:59:42Z) - Integrating cognitive map learning and active inference for planning in
ambiguous environments [8.301959009586861]
本研究では,不確実性下での計画を支援するアクティブ推論エージェント内での認知地図形成の統計モデルの統合を提案する。
具体的には,認知地図形成のクローン構造化認知グラフ(CSCG)モデルについて検討し,ナイーブなクローングラフエージェントとアクティブな推論駆動のクローングラフエージェントを比較した。
以上の結果から,両エージェントは単純なシナリオでは有効であるが,センサ観測が位置に関する曖昧な情報を提供する難易度の高いシナリオでは,アクティブ・推論・エージェントがより効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-08-16T12:10:23Z) - Choreographer: Learning and Adapting Skills in Imagination [60.09911483010824]
我々は、その世界モデルを利用して想像力のスキルを学び、適応するモデルベースのエージェントであるChoreographerを紹介する。
提案手法は探索とスキル学習のプロセスを切り離し,モデルの潜在状態空間におけるスキルの発見を可能にする。
Choreographerはオフラインデータからスキルを学ぶことができ、探索ポリシーと同時にデータを集めることができる。
論文 参考訳(メタデータ) (2022-11-23T23:31:14Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - Kinship Verification Based on Cross-Generation Feature Interaction
Learning [53.62256887837659]
顔画像からの血縁検証は、コンピュータビジョンの応用において、新しいが挑戦的な技術として認識されている。
本稿では,頑健な親族関係検証のためのクロスジェネレーション・インタラクション・ラーニング(CFIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-07T01:50:50Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Learning Affordance Landscapes for Interaction Exploration in 3D
Environments [101.90004767771897]
エージェントは環境の仕組みを習得できなければならない。
相互作用探索のための強化学習手法を提案する。
AI2-iTHORで私たちのアイデアを実証します。
論文 参考訳(メタデータ) (2020-08-21T00:29:36Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。