論文の概要: Towards neoRL networks; the emergence of purposive graphs
- arxiv url: http://arxiv.org/abs/2202.12622v1
- Date: Fri, 25 Feb 2022 11:19:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 20:08:58.992047
- Title: Towards neoRL networks; the emergence of purposive graphs
- Title(参考訳): neorlネットワークに向けて : 沈み込みグラフの出現
- Authors: Per R. Leikanger
- Abstract要約: AIをパーポープするためのNeoRLフレームワークは、認識マップをエミュレートした潜在学習を実装している。
エージェントの報酬の期待は、考慮された空間で学習された投射として表現され、ネオRLエージェントはパーポーブな振る舞いを抽出することができる。
パーポーブネットワークが支配するネオRLエージェントは、学習中にユークリッド空間をリアルタイムでナビゲートすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neoRL framework for purposive AI implements latent learning by emulated
cognitive maps, with general value functions (GVF) expressing operant desires
toward separate states. The agent's expectancy of reward, expressed as learned
projections in the considered space, allows the neoRL agent to extract
purposive behavior from the learned map according to the reward hypothesis. We
explore this allegory further, considering neoRL modules as nodes in a network
with desire as input and state-action Q-value as output; we see that action
sets with Euclidean significance imply an interpretation of state-action
vectors as Euclidean projections of desire. Autonomous desire from neoRL nodes
within the agent allows for deeper neoRL behavioral graphs. Experiments confirm
the effect of neoRL networks governed by autonomous desire, verifying the four
principles for purposive networks. A neoRL agent governed by purposive networks
can navigate Euclidean spaces in real-time while learning, exemplifying how
modern AI still can profit from inspiration from early psychology.
- Abstract(参考訳): neorl framework for purposive aiは、異なる状態に対する操作的欲求を表現する一般値関数(gvf)を用いて、エミュレートされた認知マップによる潜在学習を実装している。
エージェントの報酬期待は、考慮された空間における学習予測として表現され、ネオRLエージェントは、学習されたマップから報酬仮説に従ってパーポーブな振る舞いを抽出することができる。
ニューロRL加群を入力として、状態作用Q値を出力として、ネットワーク内のノードとして検討し、ユークリッド的意味を持つ作用集合は、状態作用ベクトルの解釈を欲求のユークリッド的射影として意味する。
エージェント内のneorlノードからの自律的な欲求は、より深いneorl行動グラフを可能にする。
実験により、自律的欲望が支配するneorlネットワークの効果が確認され、提案ネットワークの4つの原則が検証された。
ニューラルネットワークが支配するNeoRLエージェントは、学習中にユークリッド空間をリアルタイムでナビゲートし、初期の心理学からインスピレーションを得て、現代AIがいかに利益を得るかを実証する。
関連論文リスト
- Recurrent Neural Networks Learn to Store and Generate Sequences using Non-Linear Representations [54.17275171325324]
線形表現仮説(LRH)に対する反例を提示する。
入力トークンシーケンスを繰り返すように訓練されると、ニューラルネットワークは、方向ではなく、特定の順序で各位置のトークンを表現することを学ぶ。
これらの結果は、解釈可能性の研究はLRHに限定されるべきでないことを強く示唆している。
論文 参考訳(メタデータ) (2024-08-20T15:04:37Z) - Predictive Coding Networks and Inference Learning: Tutorial and Survey [0.7510165488300368]
予測符号化ネットワーク(PCN)は、予測符号化の神経科学的な枠組みに基づいている。
バックプロパゲーション(BP)で訓練された従来のニューラルネットワークとは異なり、PCNは推論学習(IL)を利用する。
本質的に確率的(グラフィック的)潜在変数モデルとして、PCNは教師付き学習と教師なし(生成的)モデリングの両方に汎用的なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-07-04T18:39:20Z) - Unsupervised representation learning with Hebbian synaptic and structural plasticity in brain-like feedforward neural networks [0.0]
教師なし表現学習が可能な脳様ニューラルネットワークモデルを導入,評価する。
このモデルは、一般的な機械学習ベンチマークのさまざまなセットでテストされた。
論文 参考訳(メタデータ) (2024-06-07T08:32:30Z) - ReLUs Are Sufficient for Learning Implicit Neural Representations [17.786058035763254]
暗黙的神経表現学習におけるReLUアクティベーション関数の使用について再考する。
2次B-スプラインウェーブレットにインスパイアされ、ディープニューラルネットワーク(DNN)の各層にReLUニューロンに一連の簡単な制約を組み込む。
我々は、一般的な信念とは対照的に、ReLUニューロンのみからなるDNNに基づいて最先端のINRを学習できることを実証した。
論文 参考訳(メタデータ) (2024-06-04T17:51:08Z) - NeoRL: Efficient Exploration for Nonepisodic RL [50.67294735645895]
非線形力学系における非線形強化学習(RL)の問題点について検討する。
我々は不確実性に直面した楽観主義の原理に基づくNonepisodic Optimistic RL(NeoRL)を提案する。
論文 参考訳(メタデータ) (2024-06-03T10:14:32Z) - Distilling Reinforcement Learning Policies for Interpretable Robot Locomotion: Gradient Boosting Machines and Symbolic Regression [53.33734159983431]
本稿では, ニューラルRLポリシをより解釈可能な形式に蒸留する新しい手法を提案する。
我々は、RLを用いて専門家のニューラルネットワークポリシーを訓練し、(i)GBM、(ii)EBM、(iii)シンボリックポリシーに蒸留する。
論文 参考訳(メタデータ) (2024-03-21T11:54:45Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Leveraging Reward Consistency for Interpretable Feature Discovery in
Reinforcement Learning [69.19840497497503]
一般的に使われているアクションマッチングの原理は、RLエージェントの解釈よりもディープニューラルネットワーク(DNN)の説明に近いと論じられている。
本稿では,RLエージェントの主目的である報酬を,RLエージェントを解釈する本質的な目的として考察する。
我々は,Atari 2600 ゲームと,挑戦的な自動運転車シミュレータ環境である Duckietown の検証と評価を行った。
論文 参考訳(メタデータ) (2023-09-04T09:09:54Z) - Decomposing the Prediction Problem; Autonomous Navigation by neoRL
Agents [0.0]
世界をナビゲートすることは、あらゆる生物にとって基本的な能力である。
NRES-Oriented RL (neoRL) エージェントが理論的な発見を検証する前にどのように可能かを示す。
論文 参考訳(メタデータ) (2021-06-30T07:57:36Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。