論文の概要: Towards neoRL networks; the emergence of purposive graphs
- arxiv url: http://arxiv.org/abs/2202.12622v1
- Date: Fri, 25 Feb 2022 11:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 20:08:58.992047
- Title: Towards neoRL networks; the emergence of purposive graphs
- Title(参考訳): neorlネットワークに向けて : 沈み込みグラフの出現
- Authors: Per R. Leikanger
- Abstract要約: AIをパーポープするためのNeoRLフレームワークは、認識マップをエミュレートした潜在学習を実装している。
エージェントの報酬の期待は、考慮された空間で学習された投射として表現され、ネオRLエージェントはパーポーブな振る舞いを抽出することができる。
パーポーブネットワークが支配するネオRLエージェントは、学習中にユークリッド空間をリアルタイムでナビゲートすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neoRL framework for purposive AI implements latent learning by emulated
cognitive maps, with general value functions (GVF) expressing operant desires
toward separate states. The agent's expectancy of reward, expressed as learned
projections in the considered space, allows the neoRL agent to extract
purposive behavior from the learned map according to the reward hypothesis. We
explore this allegory further, considering neoRL modules as nodes in a network
with desire as input and state-action Q-value as output; we see that action
sets with Euclidean significance imply an interpretation of state-action
vectors as Euclidean projections of desire. Autonomous desire from neoRL nodes
within the agent allows for deeper neoRL behavioral graphs. Experiments confirm
the effect of neoRL networks governed by autonomous desire, verifying the four
principles for purposive networks. A neoRL agent governed by purposive networks
can navigate Euclidean spaces in real-time while learning, exemplifying how
modern AI still can profit from inspiration from early psychology.
- Abstract(参考訳): neorl framework for purposive aiは、異なる状態に対する操作的欲求を表現する一般値関数(gvf)を用いて、エミュレートされた認知マップによる潜在学習を実装している。
エージェントの報酬期待は、考慮された空間における学習予測として表現され、ネオRLエージェントは、学習されたマップから報酬仮説に従ってパーポーブな振る舞いを抽出することができる。
ニューロRL加群を入力として、状態作用Q値を出力として、ネットワーク内のノードとして検討し、ユークリッド的意味を持つ作用集合は、状態作用ベクトルの解釈を欲求のユークリッド的射影として意味する。
エージェント内のneorlノードからの自律的な欲求は、より深いneorl行動グラフを可能にする。
実験により、自律的欲望が支配するneorlネットワークの効果が確認され、提案ネットワークの4つの原則が検証された。
ニューラルネットワークが支配するNeoRLエージェントは、学習中にユークリッド空間をリアルタイムでナビゲートし、初期の心理学からインスピレーションを得て、現代AIがいかに利益を得るかを実証する。
関連論文リスト
- Understanding polysemanticity in neural networks through coding theory [0.8702432681310401]
本稿では,ネットワークの解釈可能性に関する新たな実践的アプローチと,多意味性やコードの密度に関する理論的考察を提案する。
ランダムなプロジェクションによって、ネットワークがスムーズか非微分可能かが明らかになり、コードがどのように解釈されるかを示す。
我々のアプローチは、ニューラルネットワークにおける解釈可能性の追求を前進させ、その基盤となる構造についての洞察を与え、回路レベルの解釈可能性のための新たな道を提案する。
論文 参考訳(メタデータ) (2024-01-31T16:31:54Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - A Spiking Binary Neuron -- Detector of Causal Links [0.0]
因果関係認識は、学習行動、行動計画、外界ダイナミクスの推論を目的としたニューラルネットワークの基本的な操作である。
本研究は、単純なスパイク二元性ニューロンを用いた因果関係認識を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-15T15:34:17Z) - Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Interpretable and Explainable Logical Policies via Neurally Guided
Symbolic Abstraction [23.552659248243806]
ニューラルgUided Differentiable loGic policiEs (NUDGE)を紹介する。
NUDGEは、トレーニングされたニューラルネットワークベースのエージェントを使用して、候補重み付けされたロジックルールの探索をガイドし、差別化可能なロジックを使用してロジックエージェントをトレーニングする。
実験により, NUDGEエージェントは, 純粋に神経性に優れ, 初期状態や問題の大きさの異なる環境に対して良好な柔軟性を示しながら, 解釈可能かつ説明可能なポリシーを誘導できることを示した。
論文 参考訳(メタデータ) (2023-06-02T10:59:44Z) - Neural net modeling of equilibria in NSTX-U [0.0]
我々は平衡モデルと形状制御モデルに関連する2つのニューラルネットワークを開発する。
ネットワークにはEFIT01再構成アルゴリズムでトレーニングされた自由境界均衡解法であるEqnetと、Gspert符号でトレーニングされたPertnetが含まれる。
本報告では,これらのモデルが閉ループシミュレーションで確実に使用できることを示す。
論文 参考訳(メタデータ) (2022-02-28T16:09:58Z) - Deep Reinforcement Learning with Spiking Q-learning [56.13654667729119]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Decomposing the Prediction Problem; Autonomous Navigation by neoRL
Agents [0.0]
世界をナビゲートすることは、あらゆる生物にとって基本的な能力である。
NRES-Oriented RL (neoRL) エージェントが理論的な発見を検証する前にどのように可能かを示す。
論文 参考訳(メタデータ) (2021-06-30T07:57:36Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - How Neural Networks Extrapolate: From Feedforward to Graph Neural
Networks [80.55378250013496]
勾配勾配降下法によりトレーニングされたニューラルネットワークが、トレーニング分布の支持の外で学んだことを外挿する方法について検討する。
グラフニューラルネットワーク(GNN)は、より複雑なタスクでいくつかの成功を収めている。
論文 参考訳(メタデータ) (2020-09-24T17:48:59Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。