論文の概要: Self Reward Design with Fine-grained Interpretability
- arxiv url: http://arxiv.org/abs/2112.15034v1
- Date: Thu, 30 Dec 2021 12:41:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 01:36:21.729853
- Title: Self Reward Design with Fine-grained Interpretability
- Title(参考訳): きめ細かな解釈性を有する自己回帰設計
- Authors: Erico Tjoa, Guan Cuntai
- Abstract要約: Deep Reinforcement Learningにおける透明性と公平性の問題は、ディープニューラルネットワークのブラックボックスの性質に起因している可能性がある。
本稿では,ニューラルネットワークのボトムアップ設計を詳細に解釈可能な方法で回避する方法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transparency and fairness issues in Deep Reinforcement Learning may stem from
the black-box nature of deep neural networks used to learn its policy, value
functions etc. This paper proposes a way to circumvent the issues through the
bottom-up design of neural networks (NN) with detailed interpretability, where
each neuron or layer has its own meaning and utility that corresponds to
humanly understandable concept. With deliberate design, we show that lavaland
problems can be solved using NN model with few parameters. Furthermore, we
introduce the Self Reward Design (SRD), inspired by the Inverse Reward Design,
so that our interpretable design can (1) solve the problem by pure design
(although imperfectly) (2) be optimized via SRD (3) perform avoidance of
unknown states by recognizing the inactivations of neurons aggregated as the
activation in \(w_{unknown}\).
- Abstract(参考訳): 深層強化学習における透明性と公平性問題は、その方針や価値関数などを学ぶために使用される深層ニューラルネットワークのブラックボックスの性質に起因する可能性がある。
本稿では、ニューラルネットワーク(nn)のボトムアップ設計において、各ニューロンや層が、人間の理解可能な概念に対応する独自の意味と有用性を持つ、詳細な解釈可能性を有することによって、この問題を回避する方法を提案する。
故意の設計では,パラメータが少ないNNモデルを用いてラバラン問題を解くことができる。
Inverse Reward Designにインスパイアされた自己逆設計(SRD)を導入し、(1)純粋な設計(不完全だが)によって問題を解けるようにし、(2)未知の状態を避けるために、(w_{unknown}\)の活性化として集約されたニューロンの不活性化を認識する。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [54.27778591338189]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Network Inversion of Binarised Neural Nets [3.5571131514746837]
ニューラルネットワークの出力マッピングに対する入力のブラックボックスの性質を解明する上で、ネットワークの反転は重要な役割を担っている。
本稿では,ネットワークの構造をキャプチャするCNF式に符号化することで,訓練されたBNNを逆転させる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T09:39:54Z) - Symbol Correctness in Deep Neural Networks Containing Symbolic Layers [0.0]
NS-DNNの設計と分析を導く高レベル原理を定式化する。
NS-DNNの説明可能性と伝達学習にはシンボルの正しさが不可欠であることを示す。
論文 参考訳(メタデータ) (2024-02-06T03:33:50Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Scalable Coupling of Deep Learning with Logical Reasoning [0.0]
NPハード推論問題の制約と基準を学習するために,スケーラブルなニューラルアーキテクチャと損失関数を導入する。
我々の損失関数は、Besagの擬似対数関係の主な制限の1つを解き、高エネルギーの学習を可能にする。
論文 参考訳(メタデータ) (2023-05-12T17:09:34Z) - Control of synaptic plasticity in neural networks [0.0]
脳は非線形で高頻度のリカレントニューラルネットワーク(RNN)である
提案するフレームワークは,エラーフィードバックループシステムをシミュレートする新しいNNベースのアクタ批判手法を含む。
論文 参考訳(メタデータ) (2023-03-10T13:36:31Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Neural Networks with Recurrent Generative Feedback [61.90658210112138]
畳み込みニューラルネットワーク(CNN)でこの設計をインスタンス化する
実験では、標準ベンチマーク上の従来のフィードフォワードCNNに対して、CNN-Fは敵のロバスト性を大幅に改善した。
論文 参考訳(メタデータ) (2020-07-17T19:32:48Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - A neural network model of perception and reasoning [0.0]
生物学的に一貫した構成原理の単純なセットが神経ネットワークにこれらの能力を与えることを示す。
我々はこれらの原理を、最適化の代わりに概念構築に基づく新しい機械学習アルゴリズムで実装し、説明可能なニューロン活動で推論されるディープニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-02-26T06:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。