論文の概要: Additive Models Explained: A Computational Complexity Approach
- arxiv url: http://arxiv.org/abs/2510.21292v1
- Date: Fri, 24 Oct 2025 09:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.427902
- Title: Additive Models Explained: A Computational Complexity Approach
- Title(参考訳): 付加モデルの説明:計算複雑性アプローチ
- Authors: Shahaf Bassan, Michal Moshkovitz, Guy Katz,
- Abstract要約: Generalized Additive Models (GAMs) は ML コミュニティ内では *interpretable* と見なされることが多い。
計算複雑性*を解析し、複数の文脈にまたがる様々な形態のGAMについて、異なる説明を生成する。
- 参考スコア(独自算出の注目度): 9.380879437204277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalized Additive Models (GAMs) are commonly considered *interpretable* within the ML community, as their structure makes the relationship between inputs and outputs relatively understandable. Therefore, it may seem natural to hypothesize that obtaining meaningful explanations for GAMs could be performed efficiently and would not be computationally infeasible. In this work, we challenge this hypothesis by analyzing the *computational complexity* of generating different explanations for various forms of GAMs across multiple contexts. Our analysis reveals a surprisingly diverse landscape of both positive and negative complexity outcomes. Particularly, under standard complexity assumptions such as P!=NP, we establish several key findings: (1) in stark contrast to many other common ML models, the complexity of generating explanations for GAMs is heavily influenced by the structure of the input space; (2) the complexity of explaining GAMs varies significantly with the types of component models used - but interestingly, these differences only emerge under specific input domain settings; (3) significant complexity distinctions appear for obtaining explanations in regression tasks versus classification tasks in GAMs; and (4) expressing complex models like neural networks additively (e.g., as neural additive models) can make them easier to explain, though interestingly, this benefit appears only for certain explanation methods and input domains. Collectively, these results shed light on the feasibility of computing diverse explanations for GAMs, offering a rigorous theoretical picture of the conditions under which such computations are possible or provably hard.
- Abstract(参考訳): 一般化付加モデル(GAM)は、入力と出力の関係を比較的理解しやすいものにするため、MLコミュニティ内では*解釈可能な*と見なされるのが一般的である。
したがって、GAMの有意義な説明を得ることは効率的に行えず、計算的に実現できないと仮定することは自然であると考えられる。
本稿では,複数の文脈にまたがるGAMの様々な形態について,様々な説明を生成できる*計算複雑性*を解析することによって,この仮説に挑戦する。
我々の分析は、肯定的および否定的な複雑さの結果の驚くほど多様な風景を明らかにしている。
特に、P!のような標準的な複雑性仮定の下では、
1)他の一般的なMLモデルとは対照的に,GAMの説明生成の複雑さは入力空間の構造に大きく影響され,(2)GAMの説明の複雑さは使用するコンポーネントモデルの種類によって大きく異なるが,興味深いことに,これらの違いは特定の入力ドメイン設定下でのみ現れる。
これらの結果は、GAMの様々な説明を計算可能にする可能性に光を当て、そのような計算が可能であるか、あるいは証明が困難である条件の厳密な理論図を提供する。
関連論文リスト
- What makes an Ensemble (Un) Interpretable? [6.760285368641258]
エンサンブルモデルはMLコミュニティにおいて、限定的な解釈可能性によって広く認識されている。
この民間伝承の認識にもかかわらず、アンサンブルを解釈可能なものにするための厳密な数学的理解が欠けている。
論文 参考訳(メタデータ) (2025-06-09T20:38:04Z) - Efficient Contrastive Explanations on Demand [7.109897082275965]
本稿では,機械学習モデルに対して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
また,本論文では,説明文をリストアップし,最小の対照的な説明文を見つけるための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-24T08:24:10Z) - MathGAP: Out-of-Distribution Evaluation on Problems with Arbitrarily Complex Proofs [80.96119560172224]
MathGAPは、それらの算術的証明構造に関する仕様に従って、問題文と連鎖推論トレースを生成する。
MathGAP を用いて, LLM はより深く, より広くなるにつれて, 性能が著しく低下することがわかった。
論文 参考訳(メタデータ) (2024-10-17T12:48:14Z) - Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation [0.9558392439655016]
機械学習(ML)モデルを解釈する能力はますます不可欠になりつつある。
近年の研究では、様々なモデルの意思決定を説明する計算複雑性を研究することにより、解釈可能性について正式に評価することが可能であることが示されている。
論文 参考訳(メタデータ) (2024-08-07T17:20:52Z) - Local vs. Global Interpretability: A Computational Complexity Perspective [0.9558392439655016]
計算複雑性理論を用いて、MLモデルの局所的および大域的視点を評価する。
これらのモデルの局所的およびグローバル的解釈可能性に関する知見を提供する。
我々は,計算複雑性レンズによる説明可能性の検証が,MLモデル固有の解釈可能性をより厳密に把握する上で有効であることを示す。
論文 参考訳(メタデータ) (2024-06-05T06:23:49Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Shape Arithmetic Expressions: Advancing Scientific Discovery Beyond Closed-Form Equations [56.78271181959529]
GAM(Generalized Additive Models)は、変数とターゲットの間の非線形関係をキャプチャできるが、複雑な特徴相互作用をキャプチャすることはできない。
本稿では,GAMのフレキシブルな形状関数と,数学的表現に見られる複雑な特徴相互作用を融合させる形状表現算術(SHARE)を提案する。
また、標準制約を超えた表現の透明性を保証するSHAREを構築するための一連のルールを設計する。
論文 参考訳(メタデータ) (2024-04-15T13:44:01Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。