論文の概要: Clustering-Based Interpretation of Deep ReLU Network
- arxiv url: http://arxiv.org/abs/2110.06593v1
- Date: Wed, 13 Oct 2021 09:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 23:19:26.784673
- Title: Clustering-Based Interpretation of Deep ReLU Network
- Title(参考訳): クラスタリングによるDeep ReLUネットワークの解釈
- Authors: Nicola Picchiotti, Marco Gori
- Abstract要約: 我々はReLU関数の非線形挙動が自然なクラスタリングを引き起こすことを認識している。
本稿では,完全連結フィードフォワードReLUニューラルネットワークの解釈可能性を高める手法を提案する。
- 参考スコア(独自算出の注目度): 17.234442722611803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Amongst others, the adoption of Rectified Linear Units (ReLUs) is regarded as
one of the ingredients of the success of deep learning. ReLU activation has
been shown to mitigate the vanishing gradient issue, to encourage sparsity in
the learned parameters, and to allow for efficient backpropagation. In this
paper, we recognize that the non-linear behavior of the ReLU function gives
rise to a natural clustering when the pattern of active neurons is considered.
This observation helps to deepen the learning mechanism of the network; in
fact, we demonstrate that, within each cluster, the network can be fully
represented as an affine map. The consequence is that we are able to recover an
explanation, in the form of feature importance, for the predictions done by the
network to the instances belonging to the cluster. Therefore, the methodology
we propose is able to increase the level of interpretability of a fully
connected feedforward ReLU neural network, downstream from the fitting phase of
the model, without altering the structure of the network. A simulation study
and the empirical application to the Titanic dataset, show the capability of
the method to bridge the gap between the algorithm optimization and the human
understandability of the black box deep ReLU networks.
- Abstract(参考訳): 中でも、ReLU(Rectified Linear Units)の採用は、ディープラーニングの成功の材料のひとつとされている。
ReLUの活性化は、消失する勾配問題を緩和し、学習パラメータのスパーシリティを促進し、効率的なバックプロパゲーションを可能にすることが示されている。
本稿では,活動ニューロンのパターンを考慮した場合,ReLU関数の非線形挙動が自然なクラスタリングを引き起こすことを認識した。
この観察は、ネットワークの学習メカニズムの深化に寄与する。実際には、各クラスタ内で、ネットワークがアフィンマップとして完全に表現できることを実証する。
その結果、ネットワークがクラスタに属するインスタンスに対して行う予測に対して、機能の重要性という形で、説明を復元することが可能になったのです。
そこで,本提案手法では,ネットワーク構造を変化させることなく,モデルの適合相から下流の完全連結フィードフォワードreluニューラルネットワークの解釈可能性を高めることができる。
タイタニックデータセットに対するシミュレーション研究と経験的応用により、ブラックボックスディープリルーネットワークのアルゴリズム最適化と人間の理解可能性との間のギャップを橋渡しする手法の能力を示す。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Opening the Black Box: predicting the trainability of deep neural networks with reconstruction entropy [0.0]
本稿では,ディープフィードフォワードニューラルネットワークのパラメータ空間におけるトレーニング可能な状態を予測する手法を提案する。
MNISTとCIFAR10の両方のデータセットに対して、トレーニングの1つのエポックが、ディープフィードフォワードネットワークのトレーニング可能性を予測するのに十分であることを示す。
論文 参考訳(メタデータ) (2024-06-13T18:00:05Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Credit Assignment for Trained Neural Networks Based on Koopman Operator
Theory [3.130109807128472]
ニューラルネットワークのクレジット割り当て問題は、最終的な出力に対する各ネットワークコンポーネントのクレジットを評価することを指す。
本稿では,ニューラルネットワークの信頼割当問題に対する線形力学の代替的視点について述べる。
典型的なニューラルネットワークを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-02T06:34:27Z) - The Principles of Deep Learning Theory [19.33681537640272]
この本は、実践的妥当性の深いニューラルネットワークを理解するための効果的な理論アプローチを開発する。
これらのネットワークがトレーニングから非自明な表現を効果的に学習する方法について説明する。
トレーニングネットワークのアンサンブルの有効モデル複雑性を,奥行き比が支配していることを示す。
論文 参考訳(メタデータ) (2021-06-18T15:00:00Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Self-Reorganizing and Rejuvenating CNNs for Increasing Model Capacity
Utilization [8.661269034961679]
本稿では,ニューラルネットワークの計算資源利用を改善するための生物学的手法を提案する。
提案手法では,畳み込み層のチャネルアクティベーションを利用して,その層パラメータを再構成する。
再生されたパラメータは、再構成された生存パラメータから学んだことを補うために異なる特徴を学ぶ。
論文 参考訳(メタデータ) (2021-02-13T06:19:45Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。