論文の概要: Computing Conditional Shapley Values Using Tabular Foundation Models
- arxiv url: http://arxiv.org/abs/2602.09489v1
- Date: Tue, 10 Feb 2026 07:36:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.429931
- Title: Computing Conditional Shapley Values Using Tabular Foundation Models
- Title(参考訳): タブラル基礎モデルを用いた条件付き共有値の計算
- Authors: Lars Henry Berge Olsen, Dennis Christensen,
- Abstract要約: TabPFNのようなタブラル基礎モデルは、文脈内学習を活用することで、この計算ハードルを克服する。
我々は,Shapley値をTabPFNの複数変種で計算し,その性能をシミュレーションと実データの両方の最先端手法と比較する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shapley values have become a cornerstone of explainable AI, but they are computationally expensive to use, especially when features are dependent. Evaluating them requires approximating a large number of conditional expectations, either via Monte Carlo integration or regression. Until recently it has not been possible to fully exploit deep learning for the regression approach, because retraining for each conditional expectation takes too long. Tabular foundation models such as TabPFN overcome this computational hurdle by leveraging in-context learning, so each conditional expectation can be approximated without any re-training. In this paper, we compute Shapley values with multiple variants of TabPFN and compare their performance with state-of-the-art methods on both simulated and real datasets. In most cases, TabPFN yields the best performance; where it does not, it is only marginally worse than the best method, at a fraction of the runtime. We discuss further improvements and how tabular foundation models can be better adapted specifically for conditional Shapley value estimation.
- Abstract(参考訳): 共有値は、説明可能なAIの基盤となっているが、特に機能が依存している場合、使用するには計算コストがかかる。
それらを評価するには、モンテカルロ統合または回帰を通じて、多数の条件付き期待を近似する必要がある。
最近まで、各条件付き期待値の再トレーニングに時間がかかりすぎるため、回帰アプローチでディープラーニングを完全に活用することは不可能である。
TabPFNのようなタブラル基礎モデルは、文脈内学習を利用してこの計算ハードルを克服し、各条件予測を再学習することなく近似することができる。
本稿では,TabPFNの複数変種を用いてShapley値を計算し,その性能をシミュレーションと実データの両方の最先端手法と比較する。
たいていの場合、TabPFNは最高のパフォーマンスをもたらすが、そうでない場合は、ランタイムのごく一部で、最高のメソッドよりもわずかに悪いだけである。
そこで本稿では,条件付きシェープ値推定に特化して,表層基礎モデルのさらなる改良と適用方法について論じる。
関連論文リスト
- SIM-Shapley: A Stable and Computationally Efficient Approach to Shapley Value Approximation [10.009607907227293]
共有値(SV)法は、複雑なモデルにおける特徴帰属の原則的な枠組みを提供するが、高い計算コストがかかる。
最適化にインスパイアされた安定かつ効率的な近似法である,共有値近似のための反復モーメント(SIM-Shapley)を提案する。
我々の数値実験では、SIM-Shapleyは最先端のベースラインと比較して計算時間を最大85%削減する。
論文 参考訳(メタデータ) (2025-05-13T03:23:10Z) - Sample, Don't Search: Rethinking Test-Time Alignment for Language Models [55.2480439325792]
新しいテストタイムアライメントアプローチであるQAlignを紹介します。
テスト時間計算をスケールする際、QAlignは各プロンプトの最適配向分布からのサンプリングに収束する。
マルコフ連鎖モンテカルロのテキスト生成における最近の進歩を取り入れることで、基礎となるモデルを変更したり、ロジットアクセスを必要とせずに、より良い整合出力を可能にする。
論文 参考訳(メタデータ) (2025-04-04T00:41:40Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Efficient Shapley Values Estimation by Amortization for Text
Classification [66.7725354593271]
我々は,各入力特徴のシェープ値を直接予測し,追加のモデル評価を行なわずに補正モデルを開発する。
2つのテキスト分類データセットの実験結果から、アモルタイズされたモデルでは、Shapley Valuesを最大60倍のスピードアップで正確に見積もっている。
論文 参考訳(メタデータ) (2023-05-31T16:19:13Z) - A Comparative Study of Methods for Estimating Conditional Shapley Values
and When to Use Them [4.3012765978447565]
我々は,新しい手法を開発し,提案手法を拡張し,新しい手法を異なるメソッドクラスに体系化し,比較と評価を行う。
本研究では,異なる手法のクラスが条件付き期待値を正確に見積もっているかを評価するため,広範囲なシミュレーション研究を行う。
また、実世界のデータ実験にもメソッドを適用し、異なるメソッドクラスやアプローチをいつ使うべきかを推奨する。
論文 参考訳(メタデータ) (2023-05-16T15:27:17Z) - PDD-SHAP: Fast Approximations for Shapley Values using Functional
Decomposition [2.0559497209595823]
我々は、ANOVAに基づく関数分解モデルを用いて説明中のブラックボックスモデルを近似するアルゴリズムであるPDD-SHAPを提案する。
これにより、Shapleyの値を既存の大規模データセットの手法よりも桁違いに高速に計算でき、Shapleyの計算コストを大幅に削減できる。
論文 参考訳(メタデータ) (2022-08-26T11:49:54Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。