論文の概要: A Bayesian explanation of machine learning models based on modes and functional ANOVA
- arxiv url: http://arxiv.org/abs/2411.02746v1
- Date: Tue, 05 Nov 2024 02:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:31.773873
- Title: A Bayesian explanation of machine learning models based on modes and functional ANOVA
- Title(参考訳): モードと機能的ANOVAに基づく機械学習モデルのベイズ的説明
- Authors: Quan Long,
- Abstract要約: 観測されたラベル値に条件付けられた true' の機能を回復するために、ベイズフレームワークを使用します。
提案手法は平均値に基づく手法よりも人間の直感的で頑健であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Most methods in explainable AI (XAI) focus on providing reasons for the prediction of a given set of features. However, we solve an inverse explanation problem, i.e., given the deviation of a label, find the reasons of this deviation. We use a Bayesian framework to recover the ``true'' features, conditioned on the observed label value. We efficiently explain the deviation of a label value from the mode, by identifying and ranking the influential features using the ``distances'' in the ANOVA functional decomposition. We show that the new method is more human-intuitive and robust than methods based on mean values, e.g., SHapley Additive exPlanations (SHAP values). The extra costs of solving a Bayesian inverse problem are dimension-independent.
- Abstract(参考訳): 説明可能なAI(XAI)のほとんどのメソッドは、与えられた機能のセットを予測する理由を提供することに重点を置いている。
しかし,ラベルのずれを考慮すれば,このずれの原因を見出すことができる。
我々は、観測されたラベル値に基づいて `true' の機能を回復するために、ベイジアンフレームワークを使用します。
ANOVA関数分解における ''distance'' を用いて、影響のある特徴を識別し、ランク付けすることで、ラベル値のモードからの逸脱を効率的に説明する。
本手法は,例えば,SHAP(SHapley Additive exPlanations)などの平均値に基づく手法よりも,人間の直感的かつ堅牢であることを示す。
ベイズ逆問題を解決する余分なコストは次元に依存しない。
関連論文リスト
- F-Fidelity: A Robust Framework for Faithfulness Evaluation of Explainable AI [15.314388210699443]
微調整フィデリティF-フィデリティはXAIの堅牢な評価フレームワークである。
その結果, F-Fidelity は, 説明者の信頼度を回復する上で, 事前評価基準を著しく改善することを示した。
また,F-Fidelityの指標を忠実に説明すれば,入力成分の空間性を計算することができることを示す。
論文 参考訳(メタデータ) (2024-10-03T20:23:06Z) - Total Uncertainty Quantification in Inverse PDE Solutions Obtained with Reduced-Order Deep Learning Surrogate Models [50.90868087591973]
機械学習サロゲートモデルを用いて得られた逆PDE解の総不確かさを近似したベイズ近似法を提案する。
非線型拡散方程式に対する反復的アンサンブルスムーズおよび深層アンサンブル法との比較により,提案手法を検証した。
論文 参考訳(メタデータ) (2024-08-20T19:06:02Z) - Error Analysis of Shapley Value-Based Model Explanations: An Informative Perspective [1.5186937600119894]
共有値属性(Shapley Value Attribution, SVA)は、モデルの出力に対する各機能の貢献を定量化する、説明可能なAI(XAI)メソッドとして、ますます人気が高まっている。
最近の研究によると、SVAを実装する既存の方法にはいくつかの欠点があり、バイアスや信頼性の低い説明がなされている。
本稿では,SVAの説明誤差を観察バイアスと構造バイアスの2つの構成要素に分解する,新しい誤差理論解析フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-21T04:07:52Z) - Calibrated Explanations for Regression [1.2058600649065616]
回帰のための校正的説明は、高速で信頼性があり、安定し、堅牢な説明を提供する。
確率的回帰のための校正的説明は、説明を作成する全く新しい方法を提供する。
Pythonの実装はGitHubで無料で利用可能で、pipとcondaの両方を使ってインストールすることができる。
論文 参考訳(メタデータ) (2023-08-30T18:06:57Z) - PhilaeX: Explaining the Failure and Success of AI Models in Malware
Detection [6.264663726458324]
サイバーセキュリティにおける意思決定を支援するために使用されるAIモデルの予測に対する説明は、非常に重要である。
既存のAIモデルには、ほとんどのシナリオでパフォーマンスが強いにもかかわらず、予測結果に関する説明を提供する能力がない。
我々は、AIモデルの予測の完全な説明を形成するために、最適化された機能のサブセットを識別する手段を提供する、PhillaeXと呼ばれる新しい説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2022-07-02T05:06:24Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Instance-optimality in optimal value estimation: Adaptivity via
variance-reduced Q-learning [99.34907092347733]
本稿では,マルコフ決定過程における最適な$Q$値関数を離散状態と動作で推定する問題を解析する。
局所的なミニマックスフレームワークを用いて、この関数は任意の推定手順の精度の低い境界に現れることを示す。
他方,Q$ラーニングの分散還元版を解析することにより,状態と行動空間の対数的要因まで,下位境界のシャープさを確立する。
論文 参考訳(メタデータ) (2021-06-28T00:38:54Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Piecewise Linear Regression via a Difference of Convex Functions [50.89452535187813]
本稿では,データに対する凸関数(DC関数)の差を利用した線形回帰手法を提案する。
実際に実装可能であることを示すとともに,実世界のデータセット上で既存の回帰/分類手法に匹敵する性能を有することを実証的に検証した。
論文 参考訳(メタデータ) (2020-07-05T18:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。