論文の概要: Minimal Explanations for Neural Network Predictions
- arxiv url: http://arxiv.org/abs/2205.09901v1
- Date: Thu, 19 May 2022 23:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:08:41.336079
- Title: Minimal Explanations for Neural Network Predictions
- Title(参考訳): ニューラルネットワーク予測のための最小説明
- Authors: Ouns El Harzli, Bernardo Cuenca Grau, Ian Horrocks
- Abstract要約: 本稿では,ニューラルモデル予測の解釈可能性を高める新しい手法を提案する。
訓練されたニューラルモデルに対する与えられた入力は、最小の入力特徴集合を計算し、これらの特徴が無視されたときにモデル予測が変わるようにする。
- 参考スコア(独自算出の注目度): 25.212444848632515
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explaining neural network predictions is known to be a challenging problem.
In this paper, we propose a novel approach which can be effectively exploited,
either in isolation or in combination with other methods, to enhance the
interpretability of neural model predictions. For a given input to a trained
neural model, our aim is to compute a smallest set of input features so that
the model prediction changes when these features are disregarded by setting
them to an uninformative baseline value. While computing such minimal
explanations is computationally intractable in general for fully-connected
neural networks, we show that the problem becomes solvable in polynomial time
by a greedy algorithm under mild assumptions on the network's activation
functions. We then show that our tractability result extends seamlessly to more
advanced neural architectures such as convolutional and graph neural networks.
We conduct experiments to showcase the capability of our method for identifying
the input features that are essential to the model's prediction.
- Abstract(参考訳): ニューラルネットワークの予測を説明することは難しい問題である。
本稿では,神経モデル予測の解釈可能性を高めるために,孤立的あるいは他の手法と組み合わせて効果的に活用できる新しい手法を提案する。
トレーニングされたニューラルモデルに対して与えられた入力は、最小の入力特徴集合を計算し、これらの特徴が無視されたときにモデル予測が非形式的ベースライン値に設定されるようにすることを目的とする。
このような極小説明の計算は、完全連結ニューラルネットワークでは一般に計算に難解であるが、ネットワークの活性化関数に対する軽度仮定の下での欲張りなアルゴリズムによって多項式時間で解くことができることを示した。
その結果,畳み込みニューラルネットワークやグラフニューラルネットワークといった,より高度なニューラルネットワークにシームレスに拡張できることが分かった。
我々は,モデルの予測に不可欠な入力特徴を特定するための手法の有効性を示す実験を行った。
関連論文リスト
- A new approach to generalisation error of machine learning algorithms:
Estimates and convergence [0.0]
本稿では,(一般化)誤差の推定と収束に対する新しいアプローチを提案する。
本研究の結果は,ニューラルネットワークの構造的仮定を伴わない誤差の推定を含む。
論文 参考訳(メタデータ) (2023-06-23T20:57:31Z) - Promises and Pitfalls of the Linearized Laplace in Bayesian Optimization [73.80101701431103]
線形化ラプラス近似(LLA)はベイズニューラルネットワークの構築に有効で効率的であることが示されている。
ベイズ最適化におけるLLAの有用性について検討し,その性能と柔軟性を強調した。
論文 参考訳(メタデータ) (2023-04-17T14:23:43Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - High-Probability Bounds for Stochastic Optimization and Variational
Inequalities: the Case of Unbounded Variance [59.211456992422136]
制約の少ない仮定の下で高確率収束結果のアルゴリズムを提案する。
これらの結果は、標準機能クラスに適合しない問題を最適化するために検討された手法の使用を正当化する。
論文 参考訳(メタデータ) (2023-02-02T10:37:23Z) - Stochastic Langevin Differential Inclusions with Applications to Machine Learning [5.274477003588407]
ランゲヴィン型微分包含物の流動と性質に関する基礎的な結果を示す。
特に、解の存在が強く、また自由エネルギー関数の正準最小化が示される。
論文 参考訳(メタデータ) (2022-06-23T08:29:17Z) - Constrained Monotonic Neural Networks [0.685316573653194]
金融や医療といった多くの重要な分野におけるニューラルネットワークの採用は、その予測を説明する必要性によって妨げられている。
モノトニック性制約は、現実世界のシナリオで最も要求された特性の1つである。
我々は、$mathbbRn$ のコンパクト部分集合上の任意の連続単調関数を近似できることを示した。
論文 参考訳(メタデータ) (2022-05-24T04:26:10Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Modeling Implicit Bias with Fuzzy Cognitive Maps [0.0]
本稿では、構造化データセットにおける暗黙バイアスを定量化するファジィ認知マップモデルを提案する。
本稿では,ニューロンの飽和を防止する正規化様伝達関数を備えた新しい推論機構を提案する。
論文 参考訳(メタデータ) (2021-12-23T17:04:12Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Gradient Descent on Infinitely Wide Neural Networks: Global Convergence
and Generalization [0.0]
多くの教師付き機械学習手法が最適化問題として採用されている。
パラメータに線形な予測モデルの場合、これはしばしば予測保証の問題を引き起こす。
本稿では,同種活性化機能を持つ2層ニューラルネットワークについて考察する。
論文 参考訳(メタデータ) (2021-10-15T13:25:32Z) - Relaxing the Constraints on Predictive Coding Models [62.997667081978825]
予測符号化(英: Predictive coding)は、脳が行う主計算が予測誤差の最小化であるとする皮質機能の影響力のある理論である。
アルゴリズムの標準的な実装は、同じ前方と後方の重み、後方の非線形微分、1-1エラーユニット接続といった、潜在的に神経的に予測できない特徴を含んでいる。
本稿では,これらの特徴はアルゴリズムに不可欠なものではなく,Hebbianの更新ルールを用いてパラメータセットを直接あるいは学習することで,学習性能に悪影響を及ぼすことなく除去可能であることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。