論文の概要: An exact counterfactual-example-based approach to tree-ensemble models
interpretability
- arxiv url: http://arxiv.org/abs/2105.14820v1
- Date: Mon, 31 May 2021 09:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:43:16.328756
- Title: An exact counterfactual-example-based approach to tree-ensemble models
interpretability
- Title(参考訳): ツリーセンブルモデル解釈可能性に対する厳密な反実例に基づくアプローチ
- Authors: Pierre Blanchart
- Abstract要約: 高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explaining the decisions of machine learning models is becoming a necessity
in many areas where trust in ML models decision is key to their
accreditation/adoption. The ability to explain models decisions also allows to
provide diagnosis in addition to the model decision, which is highly valuable
in scenarios such as fault detection. Unfortunately, high-performance models do
not exhibit the necessary transparency to make their decisions fully
understandable. And the black-boxes approaches, which are used to explain such
model decisions, suffer from a lack of accuracy in tracing back the exact cause
of a model decision regarding a given input. Indeed, they do not have the
ability to explicitly describe the decision regions of the model around that
input, which is necessary to determine what influences the model towards one
decision or the other. We thus asked ourselves the question: is there a
category of high-performance models among the ones currently used for which we
could explicitly and exactly characterise the decision regions in the input
feature space using a geometrical characterisation? Surprisingly we came out
with a positive answer for any model that enters the category of tree ensemble
models, which encompasses a wide range of high-performance models such as
XGBoost, LightGBM, random forests ... We could derive an exact geometrical
characterisation of their decision regions under the form of a collection of
multidimensional intervals. This characterisation makes it straightforward to
compute the optimal counterfactual (CF) example associated with a query point.
We demonstrate several possibilities of the approach, such as computing the CF
example based only on a subset of features. This allows to obtain more
plausible explanations by adding prior knowledge about which variables the user
can control. An adaptation to CF reasoning on regression problems is also
envisaged.
- Abstract(参考訳): 機械学習モデルの決定を説明することは、MLモデルの決定に対する信頼が認定/承認の鍵となる多くの領域で必要となっている。
モデル決定を説明する能力は、モデル決定に加えて診断を提供することもできる。
残念ながら、高性能モデルは、決定を完全に理解するために必要な透明性を示していません。
そして、こうしたモデル決定を説明するために使用されるブラックボックスアプローチは、与えられた入力に関するモデル決定の正確な原因を追跡する精度の欠如に苦しんでいる。
実際、彼らは入力を取り巻くモデルの決定領域を明示的に記述する能力を持っていません。
幾何学的特徴化を用いて入力特徴空間における決定領域を明確かつ正確に特徴づけることのできる、現在使用されているモデルのうち、高性能モデルのカテゴリは存在するか?
驚くべきことに、私たちは、xgboost、lightgbm、ランダムフォレストなど、幅広い高性能モデルを含むツリーアンサンブルモデルのカテゴリに入る任意のモデルに対して、肯定的な答えを導き出しました。
この特徴付けにより、クエリポイントに関連する最適な反事実(CF)の例を簡単に計算できる。
CFの例を、機能のサブセットのみに基づいて計算するなど、このアプローチのいくつかの可能性を示す。
これにより、ユーザが制御できる変数に関する事前知識を追加することで、より妥当な説明を得ることができる。
回帰問題に対するCF推論への適応についても検討する。
関連論文リスト
- Stabilizing black-box model selection with the inflated argmax [8.52745154080651]
本稿では,バッジと「膨らませた」argmax演算を組み合わせたモデル選択の安定化手法を提案する。
提案手法では,データに適合するモデルの小さなコレクションを選択し,高い確率で任意のトレーニングポイントを除去すると,元のコレクションと重複するモデルのコレクションが生成される。
いずれの設定においても,提案手法は,選択したモデルの安定かつコンパクトなコレクションを生成し,様々なベンチマークより優れている。
論文 参考訳(メタデータ) (2024-10-23T20:39:07Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - Design of Dynamic Experiments for Black-Box Model Discrimination [72.2414939419588]
選択したいような動的モデル判別の設定を考えてみましょう。 (i) 最高のメカニスティックな時間変化モデルと (ii) 最高のモデルパラメータ推定値です。
勾配情報にアクセス可能な競合する力学モデルに対しては、既存の手法を拡張し、より広い範囲の問題の不確実性を組み込む。
これらのブラックボックスモデルをガウス過程サロゲートモデルに置き換えることで、モデル識別設定を拡張して、競合するブラックボックスモデルをさらに取り入れる。
論文 参考訳(メタデータ) (2021-02-07T11:34:39Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Model family selection for classification using Neural Decision Trees [4.286327408435937]
本稿では,タスクに必要な探索範囲を削減する手法を提案する。
その考え方は、厳格な決定境界を持つ特定のファミリー、参照モデル(RM)の訓練されたインスタンスから、どのくらいの費用を逸脱する必要があるかの定量化である。
論文 参考訳(メタデータ) (2020-06-20T01:27:01Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。