論文の概要: Consistent Sufficient Explanations and Minimal Local Rules for
explaining regression and classification models
- arxiv url: http://arxiv.org/abs/2111.04658v1
- Date: Mon, 8 Nov 2021 17:27:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 16:35:48.764828
- Title: Consistent Sufficient Explanations and Minimal Local Rules for
explaining regression and classification models
- Title(参考訳): 回帰モデルと分類モデルを説明するための一貫性十分記述と最小局所規則
- Authors: Salim I. Amoukou and Nicolas J.B Brunel
- Abstract要約: 我々は確率的十分説明(P-SE)の概念を拡張した
P-SEの要点は、同じ予測を維持する条件確率を計算することである。
我々は、$X$の分布を学ばず、予測を行うモデルも持たない非バイナリ機能に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To explain the decision of any model, we extend the notion of probabilistic
Sufficient Explanations (P-SE). For each instance, this approach selects the
minimal subset of features that is sufficient to yield the same prediction with
high probability, while removing other features. The crux of P-SE is to compute
the conditional probability of maintaining the same prediction. Therefore, we
introduce an accurate and fast estimator of this probability via random Forests
for any data $(\boldsymbol{X}, Y)$ and show its efficiency through a
theoretical analysis of its consistency. As a consequence, we extend the P-SE
to regression problems. In addition, we deal with non-binary features, without
learning the distribution of $X$ nor having the model for making predictions.
Finally, we introduce local rule-based explanations for
regression/classification based on the P-SE and compare our approaches w.r.t
other explainable AI methods. These methods are publicly available as a Python
package at \url{www.github.com/salimamoukou/acv00}.
- Abstract(参考訳): モデルの決定を説明するため、確率的十分説明(P-SE)の概念を拡張した。
それぞれのインスタンスに対して、このアプローチは、同じ予測を高い確率で得るのに十分な機能の最小サブセットを選択し、他の機能を削除する。
P-SEの要点は、同じ予測を維持する条件確率を計算することである。
したがって、任意のデータ$(\boldsymbol{X}, Y)$に対してランダムフォレストを通してこの確率を正確に高速に推定し、その一貫性の理論的解析を通じてその効率を示す。
その結果、p-se を回帰問題へと拡張する。
さらに、$X$の分布を学習せず、予測を行うモデルも持たずに、非バイナリ機能に対処する。
最後に、P-SEに基づく回帰/分類のための局所ルールに基づく説明を導入し、他の説明可能なAI手法と比較する。
これらのメソッドは Python パッケージとして \url{www.github.com/salimamoukou/acv00} で公開されている。
関連論文リスト
- Efficient distributional regression trees learning algorithms for calibrated non-parametric probabilistic forecasts [0.0]
回帰の文脈では、条件平均を推定する代わりに、出力の予測間隔を生成することでこれを実現できる。
本稿では, WIS や CRPS の損失関数の確率回帰木を学習するための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-02-07T18:39:35Z) - A Probabilistic Perspective on Unlearning and Alignment for Large Language Models [48.96686419141881]
大規模言語モデル(LLM)のための最初の形式的確率的評価フレームワークを紹介する。
すなわち,モデルの出力分布に関する確率保証の高い新しい指標を提案する。
私たちのメトリクスはアプリケーションに依存しないので、デプロイ前にモデル機能についてより信頼性の高い見積を行うことができます。
論文 参考訳(メタデータ) (2024-10-04T15:44:23Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Calibrated Explanations for Regression [1.2058600649065616]
回帰のための校正的説明は、高速で信頼性があり、安定し、堅牢な説明を提供する。
確率的回帰のための校正的説明は、説明を作成する全く新しい方法を提供する。
Pythonの実装はGitHubで無料で利用可能で、pipとcondaの両方を使ってインストールすることができる。
論文 参考訳(メタデータ) (2023-08-30T18:06:57Z) - Performative Prediction with Neural Networks [24.880495520422]
パフォーマンス予測は、予測するデータに影響を与えるモデルを学習するためのフレームワークである。
繰り返しリスク最小化法を用いて、性能的に安定な分類器を見つけるための標準収束結果は、データの分布がモデルのパラメータに連続であることを仮定する。
この研究では、データ分布はモデルの予測に関してリプシッツ連続であると仮定する。
論文 参考訳(メタデータ) (2023-04-14T01:12:48Z) - Ensemble Multi-Quantiles: Adaptively Flexible Distribution Prediction
for Uncertainty Quantification [4.728311759896569]
本稿では,機械学習における不確実性を定量化するために,分布予測の新しい,簡潔かつ効果的な手法を提案する。
これは回帰タスクにおいて$mathbbP(mathbfy|mathbfX=x)$の適応的に柔軟な分布予測を組み込む。
UCIデータセットからの大規模な回帰タスクでは、EMQが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-26T11:45:32Z) - Exact and Approximate Conformal Inference for Multi-Output Regression [0.0]
コンフォーマル推論は、予測に関連する不確実性を定量化するために機械学習で使用される。
本稿では,多出力回帰を考察し,共形推論の正確な導出を$p$-値で行う。
また、実世界とシミュレーションデータの両方を用いて、これらの手法の有効性に関する理論的および実証的な証拠を提供する。
論文 参考訳(メタデータ) (2022-10-31T15:41:13Z) - Multivariate Probabilistic Regression with Natural Gradient Boosting [63.58097881421937]
多変量予測分布の条件パラメータを非パラメトリックにモデル化したNatural Gradient Boosting (NGBoost) 手法を提案する。
提案手法は頑健で, 広範囲なチューニングを伴わず, 推定対象分布に対してモジュール構造であり, 既存の手法と比較して競争力がある。
論文 参考訳(メタデータ) (2021-06-07T17:44:49Z) - Probabilistic Gradient Boosting Machines for Large-Scale Probabilistic
Regression [51.770998056563094]
PGBM(Probabilistic Gradient Boosting Machines)は、確率的予測を生成する手法である。
既存の最先端手法と比較してPGBMの利点を実証的に示す。
論文 参考訳(メタデータ) (2021-06-03T08:32:13Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。