論文の概要: Hidden Monotonicity: Explaining Deep Neural Networks via their DC Decomposition
- arxiv url: http://arxiv.org/abs/2601.07700v1
- Date: Mon, 12 Jan 2026 16:31:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.640747
- Title: Hidden Monotonicity: Explaining Deep Neural Networks via their DC Decomposition
- Title(参考訳): 隠れ単調性:直流分解によるディープニューラルネットワークの解説
- Authors: Jakob Paul Zimmermann, Georg Loho,
- Abstract要約: 説明可能性を高めるために, 単調性は2つの方法で利用できることを示す。
まず、トレーニングされたReLUネットワークを2つの単調部と凸部に分解する。
第二に、2つの単調ニューラルネットワークの差分としてモデルをトレーニングすると、強い自己説明性特性を持つシステムが得られることを示す。
- 参考スコア(独自算出の注目度): 1.2103414068933556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been demonstrated in various contexts that monotonicity leads to better explainability in neural networks. However, not every function can be well approximated by a monotone neural network. We demonstrate that monotonicity can still be used in two ways to boost explainability. First, we use an adaptation of the decomposition of a trained ReLU network into two monotone and convex parts, thereby overcoming numerical obstacles from an inherent blowup of the weights in this procedure. Our proposed saliency methods -- SplitCAM and SplitLRP -- improve on state of the art results on both VGG16 and Resnet18 networks on ImageNet-S across all Quantus saliency metric categories. Second, we exhibit that training a model as the difference between two monotone neural networks results in a system with strong self-explainability properties.
- Abstract(参考訳): 様々な文脈において、モノトニック性はニューラルネットワークのより良い説明可能性をもたらすことが示されている。
しかし、全ての関数が単調ニューラルネットワークによってうまく近似できるわけではない。
説明可能性を高めるために, 単調性は2つの方法で依然として有効であることを示す。
まず、トレーニングされたReLUネットワークを2つの単調部と凸部に分解することで、本手法における重みの本質的にの爆破から数値的障害を克服する。
提案手法である SplitCAM と SplitLRP は,ImageNet-S 上の VGG16 と Resnet18 の両ネットワークにおいて,すべてのQuantus のサリエンシ・メトリック・カテゴリにおける最先端結果を改善する。
第二に、2つの単調ニューラルネットワークの差分としてモデルをトレーニングすると、強い自己説明性特性を持つシステムが得られることを示す。
関連論文リスト
- Combining Causal Models for More Accurate Abstractions of Neural Networks [10.115827125021438]
因果抽象化は、ネットワークがアルゴリズムを実装した際の正確な概念を提供する。
現実的な設定における典型的な問題は、アルゴリズムがネットワークを完全に忠実に抽象化していないことである。
我々は,より忠実なネットワーク表現を生成するために,異なる単純な高レベルモデルを組み合わせるソリューションを提案する。
論文 参考訳(メタデータ) (2025-03-14T14:14:43Z) - Learning local discrete features in explainable-by-design convolutional neural networks [0.0]
本稿では,側方抑制機構に基づくCNN(Design-by-Design Convolutional Neural Network)を提案する。
このモデルは、残留または高密度のスキップ接続を持つ高精度CNNである予測器で構成されている。
観測を収集し,直接確率を計算することにより,隣接するレベルのモチーフ間の因果関係を説明することができる。
論文 参考訳(メタデータ) (2024-10-31T18:39:41Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Certified Invertibility in Neural Networks via Mixed-Integer Programming [16.64960701212292]
ニューラルネットワークは敵の攻撃に弱いことが知られている。
ネットワークの決定に影響を与えない大きな、意味のある摂動が存在するかもしれない。
ニューラルネットワーク間の変換における可逆性検証に,我々の知見がどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2023-01-27T15:40:38Z) - Constrained Monotonic Neural Networks [0.685316573653194]
金融や医療といった多くの重要な分野におけるニューラルネットワークの採用は、その予測を説明する必要性によって妨げられている。
モノトニック性制約は、現実世界のシナリオで最も要求された特性の1つである。
我々は、$mathbbRn$ のコンパクト部分集合上の任意の連続単調関数を近似できることを示した。
論文 参考訳(メタデータ) (2022-05-24T04:26:10Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。