論文の概要: Two Instances of Interpretable Neural Network for Universal
Approximations
- arxiv url: http://arxiv.org/abs/2112.15026v1
- Date: Thu, 30 Dec 2021 12:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 02:12:43.662070
- Title: Two Instances of Interpretable Neural Network for Universal
Approximations
- Title(参考訳): 普遍近似のための解釈型ニューラルネットワークの2例
- Authors: Erico Tjoa, Guan Cuntai
- Abstract要約: 本稿では,TNN(Triangularly-constructed NN)とSQANN(Semi-Quantized Activation NN)の2つのボトムアップ解釈型ニューラルネットワーク構築法を提案する。
顕著な特徴は(1)破滅的忘れに対する耐性(2)入力(x)のトレーニングデータセット上での任意の高い精度の証明の存在である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes two bottom-up interpretable neural network (NN)
constructions for universal approximation, namely Triangularly-constructed NN
(TNN) and Semi-Quantized Activation NN (SQANN). The notable properties are (1)
resistance to catastrophic forgetting (2) existence of proof for arbitrarily
high accuracies on training dataset (3) for an input \(x\), users can identify
specific samples of training data whose activation ``fingerprints" are similar
to that of \(x\)'s activations. Users can also identify samples that are out of
distribution.
- Abstract(参考訳): 本稿では,TNN(Triangularly-constructed NN)とSQANN(Semi-Quantized Activation NN)の2つのボトムアップ解釈型ニューラルネットワーク構築手法を提案する。
顕著な特徴は,(1) 破滅的忘れ込みに対する抵抗 (2) 入力 \(x\) のトレーニングデータセットに任意に高い精度を示す証明が存在すること,(3) ユーザは ''fingerprints' のアクティベーションが \(x\) のアクティベーションと類似した訓練データの特定のサンプルを特定できる点である。
配布されていないサンプルを識別することもできる。
関連論文リスト
- Structured Neural Networks for Density Estimation and Causal Inference [15.63518195860946]
ニューラルネットワークに構造を注入することで、入力のサブセットに関する不変性を満たす学習機能を実現することができる。
本稿では,ニューラルネットワークのマスキング経路を通じて構造を注入する構造ニューラルネットワーク(StrNN)を提案する。
論文 参考訳(メタデータ) (2023-11-03T20:15:05Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Neural (Tangent Kernel) Collapse [41.273479684974234]
この研究は、ニューラル・タンジェント・カーネル(NTK)とニューラル・コラプス(NC)という2つの重要な概念を橋渡しする。
平均二乗損失(MSE)で訓練されたDNNの力学を導出し,それらを解釈可能な位相に分解する。
我々は,DNNにおけるNCの出現をブロック構造NTKで証明するために,ダイナミクスの本質を捉える不変量を用いている。
論文 参考訳(メタデータ) (2023-05-25T18:56:34Z) - Finite Sample Identification of Wide Shallow Neural Networks with Biases [12.622813055808411]
入力-出力対の有限標本からネットワークのパラメータを同定することは、しばしばエンプテラー-学生モデル(enmphteacher-student model)と呼ばれる。
本稿では,このような幅の広い浅層ネットワークに対して,構成的手法と有限標本同定の理論的保証を提供することにより,そのギャップを埋める。
論文 参考訳(メタデータ) (2022-11-08T22:10:32Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Neural networks behave as hash encoders: An empirical study [79.38436088982283]
ReLUライクなアクティベーションを持つニューラルネットワークの入力空間は、複数の線形領域に分割される。
このパーティションは、さまざまなディープラーニングモデルで以下のエンコーディング特性を示すことを実証します。
K$-Means、$K$-NN、およびロジスティック回帰などの単純なアルゴリズムは、トレーニングデータとテストデータの両方でかなり優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-01-14T07:50:40Z) - Regularizing Recurrent Neural Networks via Sequence Mixup [7.036759195546171]
我々は、元々フィードフォワードニューラルネットワークのために提案された一連の有望な正規化手法を拡張した。
提案手法は,単純なニューラルネットワークアーキテクチャの性能を生かしながら,複雑性の実装が容易である。
論文 参考訳(メタデータ) (2020-11-27T05:43:40Z) - Semi-supervised deep learning based on label propagation in a 2D
embedded space [117.9296191012968]
提案されたソリューションは、少数の教師なしイメージから多数の教師なしイメージにラベルを伝達し、ディープニューラルネットワークモデルをトレーニングする。
本稿では、より正確なラベル付きサンプルを反復してセットから深層ニューラルネットワーク(VGG-16)をトレーニングするループを提案する。
ラベル付きセットがイテレーションに沿って改善されるにつれて、ニューラルネットワークの機能が改善される。
論文 参考訳(メタデータ) (2020-08-02T20:08:54Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。