論文の概要: Bound Propagation meets Constraint Simplification: Improving Logic-based XAI for Neural Networks
- arxiv url: http://arxiv.org/abs/2603.01923v1
- Date: Mon, 02 Mar 2026 14:36:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.912663
- Title: Bound Propagation meets Constraint Simplification: Improving Logic-based XAI for Neural Networks
- Title(参考訳): 境界伝搬が制約に合致する:ニューラルネットワークのための論理ベースのXAIの改善
- Authors: Ronaldo Gomes, Jairo Ribeiro, Luiz Queiroz, Thiago Alves Rocha,
- Abstract要約: ニューラルネットワークの決定を説明する論理ベースの手法は、しばしば高い計算コストに悩まされる。
本研究では,境界伝播と制約単純化を組み合わせることにより,そのような手法の効率を向上する。
我々の実験は、これらの手法を組み合わせることで、特に大きなニューラルネットワークの場合、説明にかかる時間を最大89.26%削減できることを示唆している。
- 参考スコア(独自算出の注目度): 1.0499611180329804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logic-based methods for explaining neural network decisions offer formal guarantees of correctness and non-redundancy, but they often suffer from high computational costs, especially for large networks. In this work, we improve the efficiency of such methods by combining bound propagation with constraint simplification. These simplifications, derived from the propagation, tighten neuron bounds and eliminate unnecessary binary variables, making the explanation process more efficient. Our experiments suggest that combining these techniques reduces explanation time by up to 89.26\%, particularly for larger neural networks.
- Abstract(参考訳): ニューラルネットワークの決定を説明する論理ベースの手法は、正確性と非冗長性の正式な保証を提供するが、特に大規模ネットワークでは高い計算コストに悩まされることが多い。
本研究では,境界伝播と制約単純化を組み合わせることにより,そのような手法の効率を向上する。
これらの単純化は、伝播に由来するもので、ニューロンの境界を締め付け、不要なバイナリ変数を排除し、説明プロセスをより効率的にする。
我々の実験は、これらの手法を組み合わせることで、特に大きなニューラルネットワークの場合、説明にかかる時間を最大89.26\%削減できることを示唆している。
関連論文リスト
- Slice and Explain: Logic-Based Explanations for Neural Networks through Domain Slicing [3.847524185858632]
本稿では,ドメインスライシングを利用したNNの説明生成手法を提案する。
スライシングによって論理的制約の複雑さを減らし、説明時間を最大40%短縮する。
論文 参考訳(メタデータ) (2026-02-25T17:01:52Z) - Efficiently Transforming Neural Networks into Decision Trees: A Path to Ground Truth Explanations with RENTT [3.4872074978471788]
我々は、実行時とメモリ効率の両面において、ニューラルネットワークの正確な等価決定木表現を示す。
また、等価な決定木を用いて、ニューラルネットワークの真理の特徴を重要視する手法も提案する。
論文 参考訳(メタデータ) (2025-11-12T13:07:48Z) - Efficient Reachability Analysis for Convolutional Neural Networks Using Hybrid Zonotopes [4.32258850473064]
フィードフォワードニューラルネットワークの既存の伝播に基づく到達可能性分析手法は、スケーラビリティと精度の両方を達成するのに苦労することが多い。
この研究は、畳み込みニューラルネットワークの到達可能な集合を計算するための、新しいセットベースのアプローチを示す。
論文 参考訳(メタデータ) (2025-03-13T19:45:26Z) - Exploring the Complexity of Deep Neural Networks through Functional Equivalence [1.3597551064547502]
本稿では,ニューラルネットワークの複雑性を低減できることを示す,ディープニューラルネットワークの被覆数に縛られた新しい手法を提案する。
ネットワーク幅の増大により有効パラメータ空間の容量が減少するので、パラメータ化ネットワーク上でのトレーニングが容易になる傾向があるため、関数同値の利点が最適化されることを実証する。
論文 参考訳(メタデータ) (2023-05-19T04:01:27Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Neural Networks Reduction via Lumping [0.0]
操作数とモデルに関連するパラメータの両方を減らすために、多数のソリューションが公開されている。
これらの還元技術の多くは実際には手法であり、通常、精度を回復するために少なくとも1つの再訓練ステップを必要とする。
データや微調整を使わずにネットワーク内のニューロン数を削減し,正確な動作を完全に保存するプルーニング手法を提案する。
論文 参考訳(メタデータ) (2022-09-15T17:13:07Z) - On Optimizing Back-Substitution Methods for Neural Network Verification [1.4394939014120451]
本稿では, 後方置換がより厳密な境界を生じさせるアプローチを提案する。
我々の技術は、多くの既存のシンボル境界伝搬技術に統合できるという意味で、一般的なものである。
論文 参考訳(メタデータ) (2022-08-16T11:16:44Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。