論文の概要: Exploring Hidden Semantics in Neural Networks with Symbolic Regression
- arxiv url: http://arxiv.org/abs/2204.10529v1
- Date: Fri, 22 Apr 2022 06:47:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:48:12.208713
- Title: Exploring Hidden Semantics in Neural Networks with Symbolic Regression
- Title(参考訳): 記号回帰を伴うニューラルネットワークにおける隠れセマンティクスの探索
- Authors: Yuanzhen Luo, Qiang Lu, Xilei Hu, Jake Luo, Zhiguang Wang
- Abstract要約: NNの数学的表現を発見するために,ニューラルワーク(SRNet)のための新しい記号回帰法を提案する。
この方法は (1+$lambda$) 進化戦略 (MNNCGP-ES) を用いて、NN内の全ての層の最終的な数学的表現を抽出する。
LIMEやMAPLEと比較すると、SRNetは実際のデータセットの実際のモデルを近似する精度と傾向が高い。
- 参考スコア(独自算出の注目度): 4.321067255759366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many recent studies focus on developing mechanisms to explain the black-box
behaviors of neural networks (NNs). However, little work has been done to
extract the potential hidden semantics (mathematical representation) of a
neural network. A succinct and explicit mathematical representation of a NN
model could improve the understanding and interpretation of its behaviors. To
address this need, we propose a novel symbolic regression method for neural
works (called SRNet) to discover the mathematical expressions of a NN. SRNet
creates a Cartesian genetic programming (NNCGP) to represent the hidden
semantics of a single layer in a NN. It then leverages a multi-chromosome NNCGP
to represent hidden semantics of all layers of the NN. The method uses a
(1+$\lambda$) evolutionary strategy (called MNNCGP-ES) to extract the final
mathematical expressions of all layers in the NN. Experiments on 12 symbolic
regression benchmarks and 5 classification benchmarks show that SRNet not only
can reveal the complex relationships between each layer of a NN but also can
extract the mathematical representation of the whole NN. Compared with LIME and
MAPLE, SRNet has higher interpolation accuracy and trends to approximate the
real model on the practical dataset.
- Abstract(参考訳): 最近の多くの研究は、ニューラルネットワーク(nns)のブラックボックス挙動を説明するメカニズムの開発に焦点を当てている。
しかしながら、ニューラルネットワークの潜在的な隠れセマンティクス(数学的表現)を抽出する作業はほとんど行われていない。
NNモデルの簡潔で明示的な数学的表現は、その振る舞いの理解と解釈を改善することができる。
そこで我々は,ニューラルネットワークの数学的表現を発見するために,ニューラルワーク(SRNet)のための新しい記号回帰法を提案する。
SRNetは、NN内の単一のレイヤの隠されたセマンティクスを表現するために、カルテシアン遺伝プログラミング(NNCGP)を作成する。
次に、NNの全レイヤの隠れセマンティクスを表現するために、マルチ染色体NCGPを利用する。
この方法は (1+$\lambda$) 進化戦略 (MNNCGP-ES) を用いて、NN内の全ての層の最終的な数学的表現を抽出する。
12のシンボリック回帰ベンチマークと5つの分類ベンチマークの実験は、SRNetがNNの各層間の複雑な関係を明らかにするだけでなく、NN全体の数学的表現を抽出できることを示している。
LIME や MAPLE と比較すると,SRNet は補間精度が高く,実際のモデルに近い傾向にある。
関連論文リスト
- Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Topological Representations of Heterogeneous Learning Dynamics of Recurrent Spiking Neural Networks [16.60622265961373]
スパイキングニューラルネットワーク(SNN)は神経科学と人工知能において重要なパラダイムとなっている。
近年,深層ニューラルネットワークのネットワーク表現について研究が進められている。
論文 参考訳(メタデータ) (2024-03-19T05:37:26Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Linear Leaky-Integrate-and-Fire Neuron Model Based Spiking Neural
Networks and Its Mapping Relationship to Deep Neural Networks [7.840247953745616]
スパイキングニューラルネットワーク(SNN)は、生物学的可視性や教師なし学習能力など、脳にインスパイアされた機械学習アルゴリズムである。
本稿では,リニアリーキー・インテグレート・アンド・ファイア・モデル(LIF/SNN)の生物学的パラメータとReLU-AN/Deep Neural Networks(DNN)のパラメータとの正確な数学的マッピングを確立する。
論文 参考訳(メタデータ) (2022-05-31T17:02:26Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。