論文の概要: Bayesian Importance of Features (BIF)
- arxiv url: http://arxiv.org/abs/2010.13872v2
- Date: Sat, 17 Sep 2022 22:17:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:11:24.607476
- Title: Bayesian Importance of Features (BIF)
- Title(参考訳): ベイズの特徴の重要度(bif)
- Authors: Kamil Adamczewski, Frederik Harder, Mijung Park
- Abstract要約: ディリクレ分布を用いて入力特徴の重要性を定義し、近似ベイズ推論により学習する。
学習された重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的な重要性を提供する。
本手法は, 各種合成および実データに対する有効性を示す。
- 参考スコア(独自算出の注目度): 11.312036995195594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a simple and intuitive framework that provides quantitative
explanations of statistical models through the probabilistic assessment of
input feature importance. The core idea comes from utilizing the Dirichlet
distribution to define the importance of input features and learning it via
approximate Bayesian inference. The learned importance has probabilistic
interpretation and provides the relative significance of each input feature to
a model's output, additionally assessing confidence about its importance
quantification. As a consequence of using the Dirichlet distribution over the
explanations, we can define a closed-form divergence to gauge the similarity
between learned importance under different models. We use this divergence to
study the feature importance explainability tradeoffs with essential notions in
modern machine learning, such as privacy and fairness. Furthermore, BIF can
work on two levels: global explanation (feature importance across all data
instances) and local explanation (individual feature importance for each data
instance). We show the effectiveness of our method on a variety of synthetic
and real datasets, taking into account both tabular and image datasets. The
code is available at https://github.com/kamadforge/featimp_dp.
- Abstract(参考訳): 本稿では,入力特徴量の確率的評価を通じて統計モデルの定量的な説明を提供する,単純で直感的な枠組みを提案する。
中心となる考え方はディリクレ分布を利用して入力特徴の重要性を定義し、ベイズ近似による学習である。
学習の重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的重要性を提供し、その重要性の定量化に対する信頼性を評価する。
説明にディリクレ分布を用いることにより、異なるモデルの下で学習された重要度の間の類似性を測定するための閉形式の発散を定義することができる。
この分岐を利用して、プライバシーや公平性といった現代の機械学習において不可欠な概念と、特徴の重要性の説明可能性のトレードオフを研究する。
さらにbifは、グローバル説明(すべてのデータインスタンスにおける機能重要度)とローカル説明(各データインスタンスにおける個々の機能重要度)の2つのレベルに取り組むことができる。
本手法は,表と画像の両方のデータセットを考慮し,様々な合成および実データに対する有効性を示す。
コードはhttps://github.com/kamadforge/featimp_dpで入手できる。
関連論文リスト
- Sufficient and Necessary Explanations (and What Lies in Between) [6.9035001722324685]
本稿では,汎用機械学習モデルにおける特徴重要度に関する2つの正確な概念について考察する。
本稿では,必要十分軸に沿って連続体を探索することによって,これらの制限を回避することの重要性の統一概念を提案する。
論文 参考訳(メタデータ) (2024-09-30T15:50:57Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z) - Towards a More Reliable Interpretation of Machine Learning Outputs for
Safety-Critical Systems using Feature Importance Fusion [0.0]
我々は新しい融合距離を導入し、それを最先端技術と比較する。
我々のアプローチは、地上の真実が知られている合成データで検証される。
その結果、我々の機能重要度アンサンブルフレームワークは、既存の方法に比べて、機能重要度エラーが15%少ないことがわかった。
論文 参考訳(メタデータ) (2020-09-11T15:51:52Z) - Focus of Attention Improves Information Transfer in Visual Features [80.22965663534556]
本稿では,真のオンライン環境下での視覚情報伝達のための教師なし学習に焦点を当てた。
エントロピー項の計算は、エントロピー項のオンライン推定を行う時間的プロセスによって行われる。
入力確率分布をよりよく構成するために,人間のような注目モデルを用いる。
論文 参考訳(メタデータ) (2020-06-16T15:07:25Z) - Adversarial Infidelity Learning for Model Interpretation [43.37354056251584]
本稿では,モデル解釈のためのモデル非依存能率直接(MEED)FSフレームワークを提案する。
我々のフレームワークは、正当性、ショートカット、モデルの識別可能性、情報伝達に関する懸念を緩和する。
我々のAILメカニズムは、選択した特徴と目標の間の条件分布を学習するのに役立ちます。
論文 参考訳(メタデータ) (2020-06-09T16:27:17Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。