論文の概要: Measurably Stronger Explanation Reliability via Model Canonization
- arxiv url: http://arxiv.org/abs/2202.06621v1
- Date: Mon, 14 Feb 2022 11:16:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 14:49:45.832558
- Title: Measurably Stronger Explanation Reliability via Model Canonization
- Title(参考訳): モデルカノン化による説明信頼性の向上
- Authors: Franz Motzkus, Leander Weber and Sebastian Lapuschkin
- Abstract要約: ルールに基づく属性法は、ディープニューラルネットワークの局所的な説明を提供するのに有用であることが証明されている。
上記の問題に対するエレガントな解決策として、最近ネットワークカノン化が導入されている。
VGG-16モデルとResNet18モデルに対するルールベースの属性に対するネットワークカノン化の効果を定量的に検証する。
- 参考スコア(独自算出の注目度): 0.8768231997976865
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While rule-based attribution methods have proven useful for providing local
explanations for Deep Neural Networks, explaining modern and more varied
network architectures yields new challenges in generating trustworthy
explanations, since the established rule sets might not be sufficient or
applicable to novel network structures. As an elegant solution to the above
issue, network canonization has recently been introduced. This procedure
leverages the implementation-dependency of rule-based attributions and
restructures a model into a functionally identical equivalent of alternative
design to which established attribution rules can be applied. However, the idea
of canonization and its usefulness have so far only been explored
qualitatively. In this work, we quantitatively verify the beneficial effects of
network canonization to rule-based attributions on VGG-16 and ResNet18 models
with BatchNorm layers and thus extend the current best practices for obtaining
reliable neural network explanations.
- Abstract(参考訳): ルールに基づく帰属法はディープニューラルネットワークの局所的な説明を提供するのに有用であることが証明されているが、近代的でより多様なネットワークアーキテクチャを説明することは、確立されたルールセットが新しいネットワーク構造に十分あるいは適用できない可能性があるため、信頼できる説明を生成する上で新たな課題をもたらす。
上記の問題のエレガントな解決策として、最近ネットワークカノン化が導入されている。
この手順はルールベースの帰属の実装依存性を活用し、確立された帰属ルールが適用可能な代替設計と同等の機能的に同一な設計にモデルを再構成する。
しかし、カノン化の概念とその有用性は、これまで質的にのみ研究されてきた。
本研究では,BatchNorm層を用いたVGG-16およびResNet18モデルに対するルールベースの属性に対するネットワークカノン化の効果を定量的に検証し,信頼性の高いニューラルネットワーク説明を得るための現在のベストプラクティスを拡張する。
関連論文リスト
- Subhomogeneous Deep Equilibrium Models [5.1334640820688175]
暗黙のニューラルネットワークは、様々なアプリケーションにおける従来のネットワークの強力な代替手段として成長してきた。
これらのモデルは、しばしば存在と独自性の保証を欠き、安定性、性能、問題を高める。
我々は,非同次作用素の概念と非線形ペロン・フロベニウス理論に基づく暗黙深度ニューラルネットワークにおける固定点の存在と特異性について,新たな解析を行った。
論文 参考訳(メタデータ) (2024-03-01T18:12:46Z) - Polynomially Over-Parameterized Convolutional Neural Networks Contain
Structured Strong Winning Lottery Tickets [4.020829863982153]
十分に小さなネットワークを近似できる構造化ニューラルワークの存在を実証する。
この結果は、Strong Lottery Ticket仮説の周りの最初の部分指数境界を与える。
論文 参考訳(メタデータ) (2023-11-16T12:38:45Z) - Generalization and Estimation Error Bounds for Model-based Neural
Networks [78.88759757988761]
スパースリカバリのためのモデルベースネットワークの一般化能力は、通常のReLUネットワークよりも優れていることを示す。
我々は,高一般化を保証したモデルベースネットワークの構築を可能にする実用的な設計規則を導出する。
論文 参考訳(メタデータ) (2023-04-19T16:39:44Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Latent Network Embedding via Adversarial Auto-encoders [15.656374849760734]
本稿では,逆グラフ自動エンコーダに基づく潜在ネットワーク埋め込みモデルを提案する。
この枠組みの下では、潜伏構造を発見する問題は、部分的な観測から潜伏関係を推測するものとして定式化されている。
論文 参考訳(メタデータ) (2021-09-30T16:49:46Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Rewriting a Deep Generative Model [56.91974064348137]
我々は,深層生成モデルによって符号化された特定の規則の操作という,新たな問題設定を導入する。
本稿では,ディープネットワークの層を線形連想メモリとして操作することで,所望のルールを変更する定式化を提案する。
本稿では,生成モデルのルールを対話的に変更し,望ましい効果を得られるユーザインタフェースを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:58:16Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Interpolation between Residual and Non-Residual Networks [24.690238357686134]
ダンピング項を追加することで,新しいODEモデルを提案する。
提案モデルでは係数を調整してResNetとCNNの両方を復元可能であることを示す。
複数の画像分類ベンチマーク実験により,提案手法はResNetとResNeXtの精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-06-10T09:36:38Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。