論文の概要: Enhanced Local Explainability and Trust Scores with Random Forest Proximities
- arxiv url: http://arxiv.org/abs/2310.12428v3
- Date: Tue, 6 Aug 2024 01:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 19:41:33.870605
- Title: Enhanced Local Explainability and Trust Scores with Random Forest Proximities
- Title(参考訳): 森林確率による地域説明可能性の向上と信頼スコア
- Authors: Joshua Rosaler, Dhruv Desai, Bhaskarjit Sarmah, Dimitrios Vamvourellis, Deran Onay, Dhagash Mehta, Stefano Pasquali,
- Abstract要約: 我々は任意のランダム森林回帰モデルと分類モデルを適応重み付きK近傍モデルとして数学的に定式化できるという事実を利用する。
この線形性は、トレーニングセットの観測における任意のモデル予測に対する属性を生成するRF予測の局所的な説明可能性を促進する。
本稿では, モデル予測だけでなく, サンプル外性能を説明するために, SHAPと組み合わせて, この近接性に基づく説明可能性のアプローチをいかに活用できるかを示す。
- 参考スコア(独自算出の注目度): 0.9423257767158634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We initiate a novel approach to explain the predictions and out of sample performance of random forest (RF) regression and classification models by exploiting the fact that any RF can be mathematically formulated as an adaptive weighted K nearest-neighbors model. Specifically, we employ a recent result that, for both regression and classification tasks, any RF prediction can be rewritten exactly as a weighted sum of the training targets, where the weights are RF proximities between the corresponding pairs of data points. We show that this linearity facilitates a local notion of explainability of RF predictions that generates attributions for any model prediction across observations in the training set, and thereby complements established feature-based methods like SHAP, which generate attributions for a model prediction across input features. We show how this proximity-based approach to explainability can be used in conjunction with SHAP to explain not just the model predictions, but also out-of-sample performance, in the sense that proximities furnish a novel means of assessing when a given model prediction is more or less likely to be correct. We demonstrate this approach in the modeling of US corporate bond prices and returns in both regression and classification cases.
- Abstract(参考訳): 我々は,任意のRFを適応重み付きK近傍モデルとして数学的に定式化できるという事実を利用して,ランダム森林回帰モデルと分類モデルの予測とサンプル性能を説明する新しいアプローチを開始した。
具体的には、回帰タスクと分類タスクの両方において、どのRF予測もトレーニング対象の重み付けの和として正確に書き換えることができる。
この線形性は、トレーニングセットにおける観測におけるモデル予測の属性を生成するRF予測の局所的な説明可能性を促進し、入力特徴間のモデル予測の属性を生成するSHAPのような確立された特徴ベースの手法を補完することを示す。
本稿では, モデル予測だけでなく, モデル予測の正しさが比較的低い場合に, 確率が新たな評価手段を提供するという意味で, モデル予測だけでなく, サンプル外性能を説明するために, SHAPと組み合わせて, この近接性に基づく説明可能性のアプローチをいかに活用できるかを示す。
我々は、米国の社債価格のモデリングにおいてこのアプローチを実証し、レグレッションと分類の両方のケースでリターンを示す。
関連論文リスト
- Improving Explainability of Softmax Classifiers Using a Prototype-Based Joint Embedding Method [0.0]
本稿では,ソフトマックス分類器の説明可能性向上のための試作手法を提案する。
モデルアーキテクチャの変更とトレーニングにより、予測に寄与する原型例のサンプル化が可能となる。
我々は、ソフトマックスの信頼性よりも分布データから検出できる不確実性の指標を得る。
論文 参考訳(メタデータ) (2024-07-02T13:59:09Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - CountARFactuals -- Generating plausible model-agnostic counterfactual explanations with adversarial random forests [9.598670034160763]
ARFは可視性尺度として機能するか、あるいは反現実的な説明を直接生成することができる。
訓練や計算の効率化が容易で、連続データや分類データを自然に扱うことができ、空間性などのデシラタを直接的な方法で統合することができる。
論文 参考訳(メタデータ) (2024-04-04T15:10:13Z) - Bayesian Model Selection via Mean-Field Variational Approximation [10.433170683584994]
平均場(MF)推論の非漸近特性をベイズ的枠組みの下で検討する。
BvM(Bernstein von-Mises)定理は、MF からの変分分布をモデル的不特定性(英語版)の下で表す。
論文 参考訳(メタデータ) (2023-12-17T04:48:25Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Variational Model Perturbation for Source-Free Domain Adaptation [64.98560348412518]
確率的枠組みにおける変分ベイズ推定によるモデルパラメータの摂動を導入する。
本研究では,ベイズニューラルネットワークの学習と理論的関連性を実証し,目的領域に対する摂動モデルの一般化可能性を示す。
論文 参考訳(メタデータ) (2022-10-19T08:41:19Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Continuous and Distribution-free Probabilistic Wind Power Forecasting: A
Conditional Normalizing Flow Approach [1.684864188596015]
条件正規化フロー(CNF)に基づく確率的風力予測のためのデータ駆動型手法を提案する。
既存の手法とは対照的に、このアプローチは(非パラメトリックおよび量子的アプローチのように)分布自由であり、連続確率密度を直接生成することができる。
論文 参考訳(メタデータ) (2022-06-06T08:48:58Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - On Locality of Local Explanation Models [0.43012765978447565]
本稿では,シェープリー値の局所的解釈性を向上させる近傍参照分布の定式化について考察する。
我々は,近隣シェープの値が,局所モデル行動の洞察を与える意味的なスパース特徴関連属性を同定するのを観察する。
論文 参考訳(メタデータ) (2021-06-24T16:20:38Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。