論文の概要: llmSHAP: A Principled Approach to LLM Explainability
- arxiv url: http://arxiv.org/abs/2511.01311v1
- Date: Mon, 03 Nov 2025 07:54:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.16446
- Title: llmSHAP: A Principled Approach to LLM Explainability
- Title(参考訳): llmSHAP: LLM Explainabilityへの原則的なアプローチ
- Authors: Filip Naudot, Tobias Sundqvist, Timotheus Kampik,
- Abstract要約: 特徴属性法は、モデルの出力にどの程度の1つまたは複数の特徴が寄与したかを決定することによって、機械学習ベースの推論を説明できる。
特に人気のある帰属法は、いくつかの望ましい原則の満足度を保証する尺度である協調ゲーム理論のシェープリー値に基づいている。
我々は、大言語モデル(LLM)に基づく意思決定支援システムにおける特徴属性にShapley値を適用し、推論は設計上(非決定論的)である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attribution methods help make machine learning-based inference explainable by determining how much one or several features have contributed to a model's output. A particularly popular attribution method is based on the Shapley value from cooperative game theory, a measure that guarantees the satisfaction of several desirable principles, assuming deterministic inference. We apply the Shapley value to feature attribution in large language model (LLM)-based decision support systems, where inference is, by design, stochastic (non-deterministic). We then demonstrate when we can and cannot guarantee Shapley value principle satisfaction across different implementation variants applied to LLM-based decision support, and analyze how the stochastic nature of LLMs affects these guarantees. We also highlight trade-offs between explainable inference speed, agreement with exact Shapley value attributions, and principle attainment.
- Abstract(参考訳): 特徴属性法は、モデルの出力にどれだけの機能が寄与したかを決定することによって、機械学習ベースの推論を説明できるようにする。
特に一般的な帰属法は、決定論的推論を仮定して、いくつかの望ましい原則の満足度を保証する尺度である協調ゲーム理論のシェープリー値に基づいている。
本稿では,大言語モデル(LLM)に基づく意思決定支援システムにおける特徴属性にShapley値を適用する。
次に、LCMに基づく意思決定支援に適用された異なる実装変種に対して、Shapley値の原則満足度をいつ保証できるかを実証し、LCMの確率的性質がこれらの保証にどのように影響するかを分析する。
また、説明可能な推論速度、正確なShapley値の属性との一致、原則達成のトレードオフも強調します。
関連論文リスト
- Latent Chain-of-Thought for Visual Reasoning [53.541579327424046]
大型視覚言語モデル(LVLM)の解釈可能性および信頼性向上には,チェーン・オブ・シント(CoT)推論が不可欠である
我々は,LVLMにおける推論を後部推論として再構成し,償却変分推論に基づくスケーラブルなトレーニングアルゴリズムを提案する。
提案手法は,7つの推論ベンチマークにおいて,最先端のLVLMを強化することを実証的に実証する。
論文 参考訳(メタデータ) (2025-10-27T23:10:06Z) - Model-free Methods for Event History Analysis and Efficient Adjustment (PhD Thesis) [55.2480439325792]
この論文は、モデルフリーの観点から統一された統計学への独立した貢献のシリーズである。
第1章では、機械学習から予測技術を活用する柔軟なメソッドを定式化するために、モデルフリーの視点をどのように利用できるか、詳しく説明している。
第2章では、あるプロセスの進化が他のプロセスに直接影響されるかどうかを記述した地域独立の概念を研究している。
論文 参考訳(メタデータ) (2025-02-11T19:24:09Z) - Improving the Weighting Strategy in KernelSHAP [0.8057006406834466]
説明可能なAI(XAI)では、Shapley値が、複雑な機械学習モデルによる予測を説明する一般的なフレームワークである。
本稿では,結果のShapley値近似のばらつきを低減するために,決定論的重みを1つに置き換えるKernelSHAPの新たな改良を提案する。
提案手法は, 近似したShapley値と同じ精度を保ちながら, 必要なコントリビューション関数の評価を5%$から50%$に削減することができる。
論文 参考訳(メタデータ) (2024-10-07T10:02:31Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Probabilistic Shapley Value Modeling and Inference [4.025747321359554]
Probability Shapley Inference (PSI) は、フレキシブルな予測モデルにおける特徴属性の十分な統計をモデル化し、推測する新しいフレームワークである。
我々は、モジュラートレーニングと推論手順を備えたマスキングベースのニューラルネットワークアーキテクチャを導入する。
合成および実世界のデータセット上でPSIを評価し,強いベースラインに比べて競争力のある予測性能が得られることを示した。
論文 参考訳(メタデータ) (2024-02-06T18:09:05Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Value-Distributional Model-Based Reinforcement Learning [59.758009422067]
政策の長期的業績に関する不確実性の定量化は、シーケンシャルな意思決定タスクを解決するために重要である。
モデルに基づくベイズ強化学習の観点から問題を考察する。
本稿では,値分布関数を学習するモデルに基づくアルゴリズムであるEpicemic Quantile-Regression(EQR)を提案する。
論文 参考訳(メタデータ) (2023-08-12T14:59:19Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - RKHS-SHAP: Shapley Values for Kernel Methods [17.52161019964009]
本稿では,エフェクトインターベンショナル値とエフェクトオブザーショナルシェープ値の両方を効率的に計算できるカーネルマシンの属性法を提案する。
提案手法は局所的な摂動に対して頑健であることを示す。
論文 参考訳(メタデータ) (2021-10-18T10:35:36Z) - Joint Shapley values: a measure of joint feature importance [6.169364905804678]
結合Shapley値を導入し、Shapley公理を直接拡張する。
ジョイントシェープの値は、モデルの予測に対する特徴の平均的な影響を測る。
ゲームの結果、ジョイントシェープの値は既存の相互作用指標とは異なる洞察を示します。
論文 参考訳(メタデータ) (2021-07-23T17:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。