論文の概要: Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines
- arxiv url: http://arxiv.org/abs/2307.08485v1
- Date: Mon, 17 Jul 2023 13:47:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 13:04:54.658802
- Title: Cross Feature Selection to Eliminate Spurious Interactions and Single
Feature Dominance Explainable Boosting Machines
- Title(参考訳): スプリアスインタラクションと単一特徴優性説明可能なブースティングマシンを解消するクロスフィーチャー選択
- Authors: Shree Charran R and Sandipan Das Mahapatra
- Abstract要約: 解釈性は法的、倫理的、実践的な理由において不可欠である。
高性能モデルは、冗長な特徴と単一機能支配との素早い相互作用に悩まされることがある。
本稿では,これらの課題に対処するための新しいアプローチとして,代替のクロスフィーチャー選択,アンサンブル機能,モデル構成変更手法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Interpretability is a crucial aspect of machine learning models that enables
humans to understand and trust the decision-making process of these models. In
many real-world applications, the interpretability of models is essential for
legal, ethical, and practical reasons. For instance, in the banking domain,
interpretability is critical for lenders and borrowers to understand the
reasoning behind the acceptance or rejection of loan applications as per fair
lending laws. However, achieving interpretability in machine learning models is
challenging, especially for complex high-performance models. Hence Explainable
Boosting Machines (EBMs) have been gaining popularity due to their
interpretable and high-performance nature in various prediction tasks. However,
these models can suffer from issues such as spurious interactions with
redundant features and single-feature dominance across all interactions, which
can affect the interpretability and reliability of the model's predictions. In
this paper, we explore novel approaches to address these issues by utilizing
alternate Cross-feature selection, ensemble features and model configuration
alteration techniques. Our approach involves a multi-step feature selection
procedure that selects a set of candidate features, ensemble features and then
benchmark the same using the EBM model. We evaluate our method on three
benchmark datasets and show that the alternate techniques outperform vanilla
EBM methods, while providing better interpretability and feature selection
stability, and improving the model's predictive performance. Moreover, we show
that our approach can identify meaningful interactions and reduce the dominance
of single features in the model's predictions, leading to more reliable and
interpretable models.
Index Terms- Interpretability, EBM's, ensemble, feature selection.
- Abstract(参考訳): 解釈性は、人間がこれらのモデルの意思決定プロセスを理解し、信頼できるようにする機械学習モデルの重要な側面である。
多くの実世界の応用において、モデルの解釈性は法的、倫理的、実践的な理由に不可欠である。
例えば、銀行の領域では、公正な融資法に従って、ローン申請の受理や拒絶の背景にある理由を理解することは、貸し手や借り手にとって非常に重要である。
しかし、特に複雑な高性能モデルでは、機械学習モデルで解釈性を達成することは困難である。
そのため、様々な予測タスクにおいて、解釈可能で高性能な性質を持つEBM(Explainable Boosting Machines)が人気を集めている。
しかし、これらのモデルは、冗長な機能とのスプリアスな相互作用や、すべてのインタラクションにおけるシングルフィーチャー支配といった問題に苦しめられ、モデルの予測の解釈可能性と信頼性に影響を及ぼす可能性がある。
本稿では,交互な機能選択,アンサンブル機能,モデル構成変更技術を用いて,これらの課題に対処する新しい手法を検討する。
提案手法では,候補特徴のセットを選択し,アンサンブル特徴を選択し,ebmモデルを用いてベンチマークを行う多段階特徴選択手法を提案する。
本手法を3つのベンチマークデータセットで評価し,バニラebm法より優れた解釈性と特徴選択安定性を提供しつつ,モデルの予測性能を向上させることを実証した。
さらに,本手法は意味のある相互作用を識別し,モデルの予測における単一特徴の優位性を低減し,より信頼性と解釈可能なモデルを実現する。
指標項-解釈可能性、EMM、アンサンブル、特徴選択。
関連論文リスト
- Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - LaPLACE: Probabilistic Local Model-Agnostic Causal Explanations [1.0370398945228227]
本稿では,機械学習モデルに対する確率論的原因・効果説明を提供するLaPLACE-Explainerを紹介する。
LaPLACE-Explainerコンポーネントはマルコフ毛布の概念を利用して、関連する特徴と非関連する特徴の間の統計的境界を確立する。
提案手法は,LIME と SHAP の局所的精度と特徴の整合性の観点から,因果的説明と性能を向上する。
論文 参考訳(メタデータ) (2023-10-01T04:09:59Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - A prediction and behavioural analysis of machine learning methods for
modelling travel mode choice [0.26249027950824505]
我々は、モデル選択に影響を及ぼす可能性のある重要な要因の観点から、複数のモデリング問題に対して異なるモデリングアプローチを体系的に比較する。
その結果,非凝集性予測性能が最も高いモデルでは,行動指標やアグリゲーションモードのシェアが低下することが示唆された。
MNLモデルは様々な状況において堅牢に機能するが、ML手法はWillingness to Payのような行動指標の推定を改善することができる。
論文 参考訳(メタデータ) (2023-01-11T11:10:32Z) - ComplAI: Theory of A Unified Framework for Multi-factor Assessment of
Black-Box Supervised Machine Learning Models [6.279863832853343]
ComplAIは、説明可能性、堅牢性、パフォーマンス、公正性、モデル行動を有効にし、観察し、分析し、定量化するユニークなフレームワークである。
教師付き機械学習モデルの評価は、正しい予測を行う能力だけでなく、全体的な責任の観点から行う。
論文 参考訳(メタデータ) (2022-12-30T08:48:19Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。