論文の概要: Mechanistic Interpretation of Machine Learning Inference: A Fuzzy
Feature Importance Fusion Approach
- arxiv url: http://arxiv.org/abs/2110.11713v1
- Date: Fri, 22 Oct 2021 11:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 14:38:33.264347
- Title: Mechanistic Interpretation of Machine Learning Inference: A Fuzzy
Feature Importance Fusion Approach
- Title(参考訳): 機械学習推論の機械論的解釈:ファジィ特徴重要融合アプローチ
- Authors: Divish Rengasamy, Jimiama M. Mase, Mercedes Torres Torres, Benjamin
Rothwell, David A. Winkler, Grazziela P. Figueredo
- Abstract要約: 機能の重要性を定量化するべきかについては、合意が得られていない。
現在の最先端のアンサンブル特徴量融合は、異なるアプローチによる結果を融合するためにクリップ技術を使用する。
ここでは、ファジィデータ融合法が、クリプス融合法のいくつかの重要な限界を克服する方法について述べる。
- 参考スコア(独自算出の注目度): 0.39146761527401425
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the widespread use of machine learning to support decision-making, it is
increasingly important to verify and understand the reasons why a particular
output is produced. Although post-training feature importance approaches assist
this interpretation, there is an overall lack of consensus regarding how
feature importance should be quantified, making explanations of model
predictions unreliable. In addition, many of these explanations depend on the
specific machine learning approach employed and on the subset of data used when
calculating feature importance. A possible solution to improve the reliability
of explanations is to combine results from multiple feature importance
quantifiers from different machine learning approaches coupled with
re-sampling. Current state-of-the-art ensemble feature importance fusion uses
crisp techniques to fuse results from different approaches. There is, however,
significant loss of information as these approaches are not context-aware and
reduce several quantifiers to a single crisp output. More importantly, their
representation of 'importance' as coefficients is misleading and
incomprehensible to end-users and decision makers. Here we show how the use of
fuzzy data fusion methods can overcome some of the important limitations of
crisp fusion methods.
- Abstract(参考訳): 意思決定を支援するために機械学習が広く使われているため、特定のアウトプットが生成される理由を検証し理解することがますます重要である。
ポストトレーニング後の特徴重要アプローチはこの解釈を補助するが、機能重要度を定量化する方法に関する全体的なコンセンサスが欠如しており、モデル予測の説明は信頼できない。
さらに、これらの説明の多くは、特定の機械学習アプローチと、特徴量を計算する際に使用されるデータのサブセットに依存する。
説明の信頼性を改善するための可能な解決策は、異なる機械学習アプローチによる複数の特徴重要量化器の結果と再サンプリングを組み合わせることである。
現在の最先端のアンサンブル特徴量融合は、異なるアプローチによる結果を融合するためにクリップ技術を使用する。
しかし、これらの手法は文脈に適応せず、数個の量化器を1つのクリップ出力に還元するので、情報のかなりの損失がある。
さらに重要なことに、係数としての'importance'の表現は誤解を招くものであり、エンドユーザや意思決定者にとって理解できない。
本稿では, ファジィデータ融合法がsplit fusion法の重要な限界を克服する方法について述べる。
関連論文リスト
- A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Matched Machine Learning: A Generalized Framework for Treatment Effect
Inference With Learned Metrics [87.05961347040237]
我々は、機械学習ブラックボックスの柔軟性とマッチングの解釈可能性を組み合わせたフレームワークであるMatched Machine Learningを紹介する。
我々のフレームワークは機械学習を用いて、一致した単位を学習し、結果を推定する最適な指標を学習する。
一致機械学習のインスタンスはブラックボックスの機械学習手法と同等に動作し、類似した問題に対する既存のマッチング手法よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-04-03T19:32:30Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Interpretability with full complexity by constraining feature
information [1.52292571922932]
解釈可能性(Interpretability)は、機械学習の課題だ。
我々は、新しい角度から解釈可能性にアプローチする:モデルの複雑さを制限することなく、特徴に関する情報を制約する。
近似モデルのスペクトルから洞察を抽出する枠組みを開発する。
論文 参考訳(メタデータ) (2022-11-30T18:59:01Z) - EFI: A Toolbox for Feature Importance Fusion and Interpretation in
Python [1.593222804814135]
Ensemble Feature Importance (EFI)は、機械学習(ML)研究者、ドメインエキスパート、意思決定者のためのオープンソースのPythonツールボックスである。
EFIは、頑健で正確な特徴重要性の定量化と、予測問題に対する特徴重要性のより信頼性の高い機械的解釈を提供する。
論文 参考訳(メタデータ) (2022-08-08T18:02:37Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Bayesian Importance of Features (BIF) [11.312036995195594]
ディリクレ分布を用いて入力特徴の重要性を定義し、近似ベイズ推論により学習する。
学習された重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的な重要性を提供する。
本手法は, 各種合成および実データに対する有効性を示す。
論文 参考訳(メタデータ) (2020-10-26T19:55:58Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。