論文の概要: Multivariate Bernoulli Hoeffding Decomposition: From Theory to Sensitivity Analysis
- arxiv url: http://arxiv.org/abs/2510.07088v3
- Date: Wed, 05 Nov 2025 12:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 20:32:09.425391
- Title: Multivariate Bernoulli Hoeffding Decomposition: From Theory to Sensitivity Analysis
- Title(参考訳): 多変量ベルヌーイホエフィング分解:理論から感度解析へ
- Authors: Baptiste Ferrere, Nicolas Bousquet, Fabrice Gamboa, Jean-Michel Loubes, Joseph Muré,
- Abstract要約: この研究はベルヌーイの入力の場合に焦点を当て、分解の完全な解析的特性を提供する。
この離散的な設定では、関連する部分空間は一次元であり、分解が閉形式表現を持つことを示す。
本稿は,方法論を高次元設定に拡張し,有限な非バイナリサポートを持つ入力を含むモデルに拡張する,という視点で締めくくっている。
- 参考スコア(独自算出の注目度): 2.762021507766656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding the behavior of predictive models with random inputs can be achieved through functional decompositions into sub-models that capture interpretable effects of input groups. Building on recent advances in uncertainty quantification, the existence and uniqueness of a generalized Hoeffding decomposition have been established for correlated input variables, using oblique projections onto suitable functional subspaces. This work focuses on the case of Bernoulli inputs and provides a complete analytical characterization of the decomposition. We show that, in this discrete setting, the associated subspaces are one-dimensional and that the decomposition admits a closed-form representation. One of the main contributions of this study is to generalize the classical Fourier--Walsh--Hadamard decomposition for pseudo-Boolean functions to the correlated case, yielding an oblique version when the underlying distribution is not a product measure, and recovering the standard orthogonal form when independence holds. This explicit structure offers a fully interpretable framework, clarifying the contribution of each input combination and theoretically enabling model reverse engineering. From this formulation, explicit sensitivity measures-such as Sobol' indices and Shapley effects-can be directly derived. Numerical experiments illustrate the practical interest of the approach for decision-support problems involving binary features. The paper concludes with perspectives on extending the methodology to high-dimensional settings and to models involving inputs with finite, non-binary support.
- Abstract(参考訳): ランダムな入力を伴う予測モデルの振る舞いを理解することは、入力グループの解釈可能な効果を捉えるサブモデルへの機能的分解によって達成できる。
不確実性定量化の最近の進歩に基づき、一般化されたホーフディング分解の存在と特異性は、適切な機能部分空間への斜め射影を用いて相関する入力変数に対して確立されている。
この研究はベルヌーイの入力の場合に焦点を当て、分解の完全な解析的特性を提供する。
この離散的な設定では、関連する部分空間は一次元であり、分解が閉形式表現を持つことを示す。
この研究の主な貢献の1つは、古典的なフーリエ-ウォルシュ-アダマール分解(英語版)(Fourier--Walsh--Hadamard decomposition for pseudo-Boolean function)を相関するケースに一般化し、基底分布が積測度でないときに斜め版を生じさせ、独立性が保たれたときに標準直交形式を回復することである。
この明示的な構造は、完全に解釈可能なフレームワークを提供し、各入力の組み合わせの貢献を明確にし、理論的にはモデルのリバースエンジニアリングを可能にする。
この定式化から、Sobolの指標やShapley効果などの明示的な感度測定を直接導出することができる。
数値実験は、二項特徴を含む意思決定支援問題に対するアプローチの実践的関心を示す。
本稿は,方法論を高次元設定に拡張し,有限な非バイナリサポートを持つ入力を含むモデルに拡張する,という視点で締めくくっている。
関連論文リスト
- Internal Causal Mechanisms Robustly Predict Language Model Out-of-Distribution Behaviors [61.92704516732144]
正当性予測の最も堅牢な特徴は、モデルの振舞いに特徴的な因果的役割を果たすものであることを示す。
モデル出力の正しさを予測するために因果メカニズムを利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-05-17T00:31:39Z) - I Predict Therefore I Am: Is Next Token Prediction Enough to Learn Human-Interpretable Concepts from Data? [76.15163242945813]
大規模言語モデル (LLM) は、多くの人が知能の形式を示すと結論づけている。
本稿では,潜在離散変数として表現される人間解釈可能な概念に基づいてトークンを生成する新しい生成モデルを提案する。
論文 参考訳(メタデータ) (2025-03-12T01:21:17Z) - Bilinear Convolution Decomposition for Causal RL Interpretability [0.0]
強化学習(RL)モデルを解釈する試みは、しばしば帰属や探究のような高度な技術に依存している。
本研究では、畳み込みニューラルネットワーク(ConvNets)の非線形性を双線型変種に置き換え、これらの制限に対処可能なモデルのクラスを作成することを提案する。
モデルフリー強化学習環境では,バイリニアモデルの変形が相容れないことを示し,ProcGen環境上での並べ比較を行う。
論文 参考訳(メタデータ) (2024-12-01T19:32:04Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Hoeffding decomposition of black-box models with dependent inputs [30.076357972854723]
弱条件下での従属入力に対するHoeffdingの分解を一般化する。
2つの仮定を尊重するランダム要素の平方可積分実数値関数は、一意に加法的に加法され、特徴づけられることを示す。
論文 参考訳(メタデータ) (2023-10-10T12:28:53Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Exponentially Weighted l_2 Regularization Strategy in Constructing
Reinforced Second-order Fuzzy Rule-based Model [72.57056258027336]
従来の高木スゲノカン(TSK)型ファジィモデルでは、定数あるいは線形関数がファジィ規則の連続部分として使用されるのが普通である。
調和解析で遭遇する重み関数理論にインスパイアされた指数重みアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-02T15:42:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。