論文の概要: Guaranteed Optimal Compositional Explanations for Neurons
- arxiv url: http://arxiv.org/abs/2511.20934v1
- Date: Tue, 25 Nov 2025 23:50:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.900952
- Title: Guaranteed Optimal Compositional Explanations for Neurons
- Title(参考訳): ニューロンの最適構成記述の保証
- Authors: Biagio La Rosa, Leilani H. Gilpin,
- Abstract要約: 構成的な説明は、ニューロンの活性化と概念の間の空間的アライメントを記述する。
ビームサーチは 最適性の理論的保証は 提供できない
本稿では,最適構成記述を計算するための最初のフレームワークを紹介する。
- 参考スコア(独自算出の注目度): 4.497600020881818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While neurons are the basic units of deep neural networks, it is still unclear what they learn and if their knowledge is aligned with that of humans. Compositional explanations aim to answer this question by describing the spatial alignment between neuron activations and concepts through logical rules. These logical descriptions are typically computed via a search over all possible concept combinations. Since computing the spatial alignment over the entire state space is computationally infeasible, the literature commonly adopts beam search to restrict the space. However, beam search cannot provide any theoretical guarantees of optimality, and it remains unclear how close current explanations are to the true optimum. In this theoretical paper, we address this gap by introducing the first framework for computing guaranteed optimal compositional explanations. Specifically, we propose: (i) a decomposition that identifies the factors influencing the spatial alignment, (ii) a heuristic to estimate the alignment at any stage of the search, and (iii) the first algorithm that can compute optimal compositional explanations within a feasible time. Using this framework, we analyze the differences between optimal and non-optimal explanations in the most popular settings for compositional explanations, the computer vision domain and Convolutional Neural Networks. In these settings, we demonstrate that 10-40 percent of explanations obtained with beam search are suboptimal when overlapping concepts are involved. Finally, we evaluate a beam-search variant guided by our proposed decomposition and heuristic, showing that it matches or improves runtime over prior methods while offering greater flexibility in hyperparameters and computational resources.
- Abstract(参考訳): ニューロンはディープニューラルネットワークの基本単位であるが、彼らが何を学んだのか、その知識が人間のものと一致しているかはまだ不明である。
構成的説明は、論理規則を通じてニューロンの活性化と概念の間の空間的アライメントを記述することによって、この問題に答えることを目的としている。
これらの論理的記述は通常、可能なすべての概念の組み合わせを探索することで計算される。
状態空間全体の空間アライメントの計算は計算不可能であるため、文献は一般にビームサーチを採用して空間を制限している。
しかし、ビームサーチでは最適性の理論的保証は得られず、現在の説明が真の最適値にどの程度近いかは定かではない。
本稿では,このギャップを,最適構成記述を計算するための第1の枠組みを導入することによって解決する。
具体的には、
一 空間的アライメントに影響を及ぼす要因を特定する分解
二 探索の任意の段階におけるアライメントを推定するヒューリスティックであって、
(iii) 最適構成説明を実現可能な時間内に計算できる最初のアルゴリズム。
このフレームワークを用いて、最も一般的な構成的説明、コンピュータビジョン領域、畳み込みニューラルネットワークにおいて、最適な説明と最適でない説明の相違を分析する。
これらの設定では、重なり合う概念が関与する場合、ビームサーチで得られた説明の10~40%が最適以下であることが示される。
最後に,提案した分解法とヒューリスティック法によって導かれるビームサーチのバリエーションを評価し,ハイパーパラメータや計算資源の柔軟性を向上しつつ,従来の手法よりも実行時と一致または改善していることを示す。
関連論文リスト
- Understanding Inverse Reinforcement Learning under Overparameterization: Non-Asymptotic Analysis and Global Optimality [52.906438147288256]
我々のアルゴリズムは,特定のニューラルネットワーク構造の下で,最適報酬とポリシーを識別できることが示される。
これは、国際的最適性を確実に達成する非漸近収束保証を持つ最初のIRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-03-22T21:16:08Z) - Discrete Neural Algorithmic Reasoning [18.497863598167257]
本稿では,有限状態の組合せとして,ニューラル推論器に実行軌跡の維持を強制することを提案する。
アルゴリズムの状態遷移の監督で訓練されたモデルでは、元のアルゴリズムと完全に整合することができる。
論文 参考訳(メタデータ) (2024-02-18T16:03:04Z) - Towards a fuller understanding of neurons with Clustered Compositional
Explanations [8.440673378588489]
本稿では、構成説明とクラスタリングを組み合わせたクラスタ化と、ニューロンの行動の幅広いスペクトルを近似する新しい探索を提案する。
本稿では,これらの手法を複数のアクティベーション領域に適用する際の問題点を定義し,提案アルゴリズムを用いて探索可能な洞察を解析し,異なるアルゴリズムで返される説明を研究するために使用できるデシラタ質を提案する。
論文 参考訳(メタデータ) (2023-10-27T19:39:50Z) - Unified Field Theory for Deep and Recurrent Neural Networks [56.735884560668985]
本稿では,再帰的ネットワークと深層ネットワークの両方に対する平均場理論の統一的,体系的な導出について述べる。
平均場理論への収束は、ディープネットワークよりもリカレントネットワークの方が典型的に遅い。
提案手法はガウス過程が1/n$の体系的展開の最下位次数であることを示す。
論文 参考訳(メタデータ) (2021-12-10T15:06:11Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - On Guaranteed Optimal Robust Explanations for NLP Models [16.358394218953833]
我々は,マシーン学習のための推論に基づく説明を構築し,ニューラルネットワークモデルのための局所的説明を計算する方法を開発した。
我々は,それぞれ暗黙の打撃集合と最大普遍部分集合に基づく2つの解アルゴリズムを提案する。
SST、Twitter、IMDBデータセットから、広く使用されている3つの感情分析タスクと最大100ワードのテキストに基づいてフレームワークを評価します。
論文 参考訳(メタデータ) (2021-05-08T08:44:48Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。