論文の概要: Explicitising The Implicit Intrepretability of Deep Neural Networks Via
Duality
- arxiv url: http://arxiv.org/abs/2203.16455v1
- Date: Tue, 1 Mar 2022 03:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 20:22:54.422247
- Title: Explicitising The Implicit Intrepretability of Deep Neural Networks Via
Duality
- Title(参考訳): ディープニューラルネットワークの暗黙的解釈可能性の実証と双対性
- Authors: Chandrashekar Lakshminarayanan, Amit Vikram Singh, Arun Rajkumar
- Abstract要約: Lakshminarayanan氏とSingh氏の最近の研究は、修正線形ユニット(ReLU)を備えた完全連結ディープニューラルネットワーク(DNN)のための二重ビューを提供する。
- 参考スコア(独自算出の注目度): 5.672223170618133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work by Lakshminarayanan and Singh [2020] provided a dual view for
fully connected deep neural networks (DNNs) with rectified linear units (ReLU).
It was shown that (i) the information in the gates is analytically
characterised by a kernel called the neural path kernel (NPK) and (ii) most
critical information is learnt in the gates, in that, given the learnt gates,
the weights can be retrained from scratch without significant loss in
performance. Using the dual view, in this paper, we rethink the conventional
interpretations of DNNs thereby explicitsing the implicit interpretability of
DNNs. Towards this, we first show new theoretical properties namely rotational
invariance and ensemble structure of the NPK in the presence of convolutional
layers and skip connections respectively. Our theory leads to two surprising
empirical results that challenge conventional wisdom: (i) the weights can be
trained even with a constant 1 input, (ii) the gating masks can be shuffled,
without any significant loss in performance. These results motivate a novel
class of networks which we call deep linearly gated networks (DLGNs). DLGNs
using the phenomenon of dual lifting pave way to more direct and simpler
interpretation of DNNs as opposed to conventional interpretations. We show via
extensive experiments on CIFAR-10 and CIFAR-100 that these DLGNs lead to much
better interpretability-accuracy tradeoff.
- Abstract(参考訳): Lakshminarayanan と Singh [2020] による最近の研究は、完全連結深層ニューラルネットワーク(DNN)と修正線形ユニット(ReLU)の二重ビューを提供した。
示されていたのは
i) ゲート内の情報は、NPK(Neural path kernel)と呼ばれるカーネルによって解析的に特徴づけられ、
(二)最も重要な情報は門で学習され、学習したゲートを考慮すれば、性能を著しく損なうことなく、ゼロから重みを再現することができる。
本稿では,DNNの従来の解釈を再考し,DNNの暗黙的解釈可能性を明らかにする。
そこで我々はまず,畳み込み層の存在下でのNPKの回転不変性とアンサンブル構造の新たな理論的性質を示す。
私たちの理論は、従来の知恵に挑戦する2つの驚くべき経験的な結果をもたらす。
(i)一定の1入力でも重みを訓練することができる。
(ii)ガティングマスクは性能を損なうことなくシャッフルすることができる。
これらの結果は、我々がDLGN(Deep linearly gated Network)と呼ぶ新しいネットワークのクラスを動機付けている。
DLGNは、従来の解釈とは対照的に、より直接的で単純なDNN解釈を行うために、二重昇降路の現象を用いる。
CIFAR-10 と CIFAR-100 の広範な実験を通して,これらの DLGN は解釈可能性と精度のトレードオフを大幅に向上させることを示す。
関連論文リスト
- Information-Theoretic Generalization Bounds for Deep Neural Networks [22.87479366196215]
ディープニューラルネットワーク(DNN)は、実用的な応用において、非常に優れた一般化能力を示す。
本研究の目的は,情報理論の一般化境界による教師あり学習における深度の影響とメリットを捉えることである。
論文 参考訳(メタデータ) (2024-04-04T03:20:35Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Learning Ability of Interpolating Deep Convolutional Neural Networks [28.437011792990347]
我々は,深層ニューラルネットワーク,深層畳み込みニューラルネットワーク(DCNN)の重要なファミリーの学習能力について検討する。
非補間DCNNに適切に定義された層を追加することで、非補間DCNNの良好な学習率を維持する補間DCNNが得られることを示す。
我々の研究は、過度に適合したDCNNの一般化の理論的検証を提供する。
論文 参考訳(メタデータ) (2022-10-25T17:22:31Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - Disentangling deep neural networks with rectified linear units using
duality [4.683806391173103]
線形整流ユニット(ReLU)を用いたディープニューラルネットワーク(DNN)の解釈可能な新しい実装を提案する。
我々は、大域プールとスキップ接続との畳み込みが、それぞれ回転不変性とアンサンブル構造をニューラルパスカーネル(NPK)にもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-06T16:51:59Z) - A self consistent theory of Gaussian Processes captures feature learning
effects in finite CNNs [2.28438857884398]
無限幅/チャネル制限のディープニューラルネットワーク(DNN)が最近注目を集めている。
理論上の魅力にもかかわらず、この視点は有限DNNにおいて深層学習の重要な要素を欠いている。
ここでは,大きなトレーニングセット上で雑音勾配勾配で訓練されたDNNを考察し,強い有限DNNと特徴学習効果を考慮した自己一貫したガウス過程理論を導出する。
論文 参考訳(メタデータ) (2021-06-08T05:20:00Z) - The Surprising Simplicity of the Early-Time Learning Dynamics of Neural
Networks [43.860358308049044]
研究において、これらの共通認識は、学習の初期段階において完全に誤りであることを示す。
この驚くべき単純さは、畳み込みアーキテクチャを持つより多くのレイヤを持つネットワークで持続することができる、と私たちは主張する。
論文 参考訳(メタデータ) (2020-06-25T17:42:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。