論文の概要: NEWRON: A New Generalization of the Artificial Neuron to Enhance the
Interpretability of Neural Networks
- arxiv url: http://arxiv.org/abs/2110.02775v1
- Date: Tue, 5 Oct 2021 15:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:34:33.830329
- Title: NEWRON: A New Generalization of the Artificial Neuron to Enhance the
Interpretability of Neural Networks
- Title(参考訳): ニューロン:ニューラルネットワークの解釈可能性を高めるために人工ニューロンの新しい一般化
- Authors: Federico Siciliano, Maria Sofia Bucarelli, Gabriele Tolomei, Fabrizio
Silvestri
- Abstract要約: NEWRON: McCulloch-Pitts ニューロン構造の一般化を定式化する。
NEWRONの特殊化によって,ネットワークの表現性の変化を伴わずに解釈可能であることを示す。
- 参考スコア(独自算出の注目度): 2.5033884961001225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we formulate NEWRON: a generalization of the McCulloch-Pitts
neuron structure. This new framework aims to explore additional desirable
properties of artificial neurons. We show that some specializations of NEWRON
allow the network to be interpretable with no change in their expressiveness.
By just inspecting the models produced by our NEWRON-based networks, we can
understand the rules governing the task. Extensive experiments show that the
quality of the generated models is better than traditional interpretable models
and in line or better than standard neural networks.
- Abstract(参考訳): 本研究では、マカロック・ピッツニューロン構造の一般化であるNEWRONを定式化する。
この新しい枠組みは、人工ニューロンのさらなる望ましい特性を探求することを目的としている。
NEWRONの特殊化によって,ネットワークの表現性の変化を伴わずに解釈可能であることを示す。
NEWRONベースのネットワークが生成するモデルを調べるだけで、タスクを規定するルールを理解することができる。
広範な実験により、生成されたモデルの品質は、従来の解釈可能なモデルよりも、あるいは通常のニューラルネットワークよりも優れていることが示された。
関連論文リスト
- GINN-KAN: Interpretability pipelining with applications in Physics Informed Neural Networks [5.2969467015867915]
本稿では,解釈可能性パイプラインの概念を導入し,複数の解釈可能性技術を導入し,各手法の精度を向上する。
我々は、標準的なニューラルネットワークアーキテクチャに解釈可能性を導入する可能性のために選択された2つの最近のモデルを評価する。
両モデルの利点を合成する新しい解釈可能なニューラルネットワークGINN-KANを提案する。
論文 参考訳(メタデータ) (2024-08-27T04:57:53Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - De-novo Chemical Reaction Generation by Means of Temporal Convolutional
Neural Networks [3.357271554042638]
本稿では、リカレントニューラルネットワーク(RNN)と一時畳み込みニューラルネットワーク(TCN)の2つの組み合わせを示す。
リカレントニューラルネットワークは自己回帰特性で知られており、SMILES生成への直接適用を伴う言語モデリングで頻繁に使用される。
比較的新しいTCNは、自然言語処理(NLP)に必要な因果性に従いながら、広い受容野を持つ類似特性を有する
異なる微調整プロトコルは、転送学習による関心のデータセットに適用した場合、モデルの生成範囲に大きな影響を与えることが示されている。
論文 参考訳(メタデータ) (2023-10-26T12:15:56Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Bio-Inspired Simple Neural Network for Low-Light Image Restoration: A
Minimalist Approach [8.75682288556859]
本研究では、網膜モデルにインスパイアされた単純なニューラルネットワークを用いて、低照度画像を効率よく復元する可能性について検討する。
提案するニューラルネットワークモデルは,従来の信号処理モデルと比較して計算オーバーヘッドを低減する。
論文 参考訳(メタデータ) (2023-05-03T01:16:45Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Low-Light Image Restoration Based on Retina Model using Neural Networks [0.0]
提案したニューラルネットワークモデルは、従来の信号処理モデルと対照的に計算オーバーヘッドのコストを削減し、主観的観点から複雑なディープラーニングモデルに匹敵する結果を生成する。
この研究は、ニューラルネットワークを用いて網膜ニューロンの機能を直接シミュレートするために、最適パラメーターを手動で探すことを避けるだけでなく、特定の神経生物学組織のために対応する人工バージョンを構築する方法を構築することも示している。
論文 参考訳(メタデータ) (2022-10-04T08:14:49Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。