論文の概要: Explaining Models under Multivariate Bernoulli Distribution via Hoeffding Decomposition
- arxiv url: http://arxiv.org/abs/2510.07088v1
- Date: Wed, 08 Oct 2025 14:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.569262
- Title: Explaining Models under Multivariate Bernoulli Distribution via Hoeffding Decomposition
- Title(参考訳): ホエーディング分解による多変量ベルヌーイ分布下の説明モデル
- Authors: Baptiste Ferrere, Nicolas Bousquet, Fabrice Gamboa, Jean-Michel Loubes, Joseph Muré,
- Abstract要約: サブモデル分解によるランダムな入力を伴う予測モデルの振る舞いを解説する。
基礎となる L2 の部分空間は 1 次元であり、汎函数分解は明示的であることを示す。
入力が出力予測に与える影響の明示的な指標を明示的に導出することができる。
- 参考スコア(独自算出の注目度): 2.762021507766656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explaining the behavior of predictive models with random inputs can be achieved through sub-models decomposition, where such sub-models have easier interpretable features. Arising from the uncertainty quantification community, recent results have demonstrated the existence and uniqueness of a generalized Hoeffding decomposition for such predictive models when the stochastic input variables are correlated, based on concepts of oblique projection onto L 2 subspaces. This article focuses on the case where the input variables have Bernoulli distributions and provides a complete description of this decomposition. We show that in this case the underlying L 2 subspaces are one-dimensional and that the functional decomposition is explicit. This leads to a complete interpretability framework and theoretically allows reverse engineering. Explicit indicators of the influence of inputs on the output prediction (exemplified by Sobol' indices and Shapley effects) can be explicitly derived. Illustrated by numerical experiments, this type of analysis proves useful for addressing decision-support problems, based on binary decision diagrams, Boolean networks or binary neural networks. The article outlines perspectives for exploring high-dimensional settings and, beyond the case of binary inputs, extending these findings to models with finite countable inputs.
- Abstract(参考訳): ランダムな入力を伴う予測モデルの振る舞いを説明することは、そのようなサブモデルが容易に解釈可能な機能を持つようなサブモデル分解によって実現できる。
不確実な量化のコミュニティから、近年の結果は、L2部分空間への斜め射影の概念に基づいて確率的入力変数が相関しているときに、そのような予測モデルに対する一般化されたHoeffding分解の存在と特異性を示している。
本稿では、入力変数がベルヌーイ分布を持つ場合に焦点を当て、この分解の完全な記述を提供する。
この場合、基礎となる L2 の部分空間は 1 次元であり、汎函数分解は明示的であることを示す。
これは完全な解釈可能性フレームワークをもたらし、理論的にはリバースエンジニアリングを可能にします。
入力が出力予測に与える影響の明示的な指標(ソボルの指標とシェープ効果によって例示される)を明示的に導き出すことができる。
数値実験で示されるこの種の分析は、二項決定図、ブールネットワーク、または二項ニューラルネットワークに基づく意思決定支援問題に対処するのに有用である。
この記事は、高次元設定を探究するための視点を概説し、バイナリ入力の場合に限らず、これらの結果を有限可算入力を持つモデルに拡張する。
関連論文リスト
- Internal Causal Mechanisms Robustly Predict Language Model Out-of-Distribution Behaviors [61.92704516732144]
正当性予測の最も堅牢な特徴は、モデルの振舞いに特徴的な因果的役割を果たすものであることを示す。
モデル出力の正しさを予測するために因果メカニズムを利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-05-17T00:31:39Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Bilinear Convolution Decomposition for Causal RL Interpretability [0.0]
強化学習(RL)モデルを解釈する試みは、しばしば帰属や探究のような高度な技術に依存している。
本研究では、畳み込みニューラルネットワーク(ConvNets)の非線形性を双線型変種に置き換え、これらの制限に対処可能なモデルのクラスを作成することを提案する。
モデルフリー強化学習環境では,バイリニアモデルの変形が相容れないことを示し,ProcGen環境上での並べ比較を行う。
論文 参考訳(メタデータ) (2024-12-01T19:32:04Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Hoeffding decomposition of black-box models with dependent inputs [30.076357972854723]
弱条件下での従属入力に対するHoeffdingの分解を一般化する。
2つの仮定を尊重するランダム要素の平方可積分実数値関数は、一意に加法的に加法され、特徴づけられることを示す。
論文 参考訳(メタデータ) (2023-10-10T12:28:53Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Exponentially Weighted l_2 Regularization Strategy in Constructing
Reinforced Second-order Fuzzy Rule-based Model [72.57056258027336]
従来の高木スゲノカン(TSK)型ファジィモデルでは、定数あるいは線形関数がファジィ規則の連続部分として使用されるのが普通である。
調和解析で遭遇する重み関数理論にインスパイアされた指数重みアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-02T15:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。