論文の概要: Feature Importance versus Feature Influence and What It Signifies for
Explainable AI
- arxiv url: http://arxiv.org/abs/2308.03589v1
- Date: Mon, 7 Aug 2023 13:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:35:05.563113
- Title: Feature Importance versus Feature Influence and What It Signifies for
Explainable AI
- Title(参考訳): 説明可能なAIにおける特徴の重要性と特徴の影響
- Authors: Kary Fr\"amling
- Abstract要約: 特徴の重要性は、最先端のExplainable AIメソッドで使われている機能の影響と混同してはならない。
CIU(Contextual Importance and Utility)メソッドは、グローバルな特徴とローカルな特徴の統一的な定義を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When used in the context of decision theory, feature importance expresses how
much changing the value of a feature can change the model outcome (or the
utility of the outcome), compared to other features. Feature importance should
not be confused with the feature influence used by most state-of-the-art
post-hoc Explainable AI methods. Contrary to feature importance, feature
influence is measured against a reference level or baseline. The Contextual
Importance and Utility (CIU) method provides a unified definition of global and
local feature importance that is applicable also for post-hoc explanations,
where the value utility concept provides instance-level assessment of how
favorable or not a feature value is for the outcome. The paper shows how CIU
can be applied to both global and local explainability, assesses the fidelity
and stability of different methods, and shows how explanations that use
contextual importance and contextual utility can provide more expressive and
flexible explanations than when using influence only.
- Abstract(参考訳): 決定論の文脈で使われる場合、特徴の重要性は、他の特徴と比較して、ある特徴の価値がモデル結果(または結果の効用)をどの程度変えるかを表す。
特徴の重要性は、最先端のExplainable AIメソッドで使われている機能の影響と混同してはならない。
特徴の重要性とは対照的に、特徴の影響は参照レベルやベースラインに対して測定される。
文脈的重要性と実用性(CIU)メソッドは、グローバルかつ局所的な特徴の重要性を統一的に定義し、ポストホックな説明にも適用することができる。
本稿は,ciuをグローバルとローカルの両方の説明可能性に適用し,異なる方法の忠実性と安定性を評価し,文脈的重要性と文脈的有用性を用いた説明が,影響のみを使用する場合よりも表現力と柔軟に説明できることを示す。
関連論文リスト
- Lost in Context: The Influence of Context on Feature Attribution Methods for Object Recognition [4.674826882670651]
本研究では,文脈操作がモデル精度と特徴属性の両方にどのように影響するかを検討する。
我々は、オブジェクト認識タスクにおけるコンテキストに基づくディープニューラルネットワークの信頼度を解明するために、様々な特徴属性技術を用いている。
論文 参考訳(メタデータ) (2024-11-05T06:13:01Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Context-LGM: Leveraging Object-Context Relation for Context-Aware Object
Recognition [48.5398871460388]
本稿では,オブジェクト・コンテキスト関係を階層的にモデル化する新しいコンテキスト潜在生成モデル(Contextual Latent Generative Model,Context-LGM)を提案する。
文脈的特徴を推定するために、変数自動エンコーダ(VAE)の目的関数を再構成し、対象物に対する後続条件付き分布として文脈的特徴を学習する。
本手法の有効性は,2つのコンテキスト認識オブジェクト認識タスクにおける最先端性能によって検証される。
論文 参考訳(メタデータ) (2021-10-08T11:31:58Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - Comparing interpretability and explainability for feature selection [0.6015898117103068]
各種ブラックボックスおよび解釈可能な機械学習手法における特徴選択法としての可変重要度の性能について検討する。
その結果,XGBoost はネイティブ変数重要度法や SHAP によらず,関連する特徴と無関係な特徴を明確に区別することができないことがわかった。
論文 参考訳(メタデータ) (2021-05-11T20:01:23Z) - A-FMI: Learning Attributions from Deep Networks via Feature Map
Importance [58.708607977437794]
勾配に基づくアトリビューション法は畳み込みニューラルネットワーク(CNN)の理解を助けることができる
帰属特徴の冗長性と勾配飽和問題は、帰属方法がまだ直面する課題である。
本稿では,各特徴マップの寄与度を高めるための新しい概念,特徴マップ重要度 (FMI) と,勾配飽和問題に対処するためのFMIによる新しい帰属法を提案する。
論文 参考訳(メタデータ) (2021-04-12T14:54:44Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Bayesian Importance of Features (BIF) [11.312036995195594]
ディリクレ分布を用いて入力特徴の重要性を定義し、近似ベイズ推論により学習する。
学習された重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的な重要性を提供する。
本手法は, 各種合成および実データに対する有効性を示す。
論文 参考訳(メタデータ) (2020-10-26T19:55:58Z) - Nonparametric Feature Impact and Importance [0.6123324869194193]
データ上で直接動作する部分依存曲線から導かれる特徴的影響と重要性の数学的定義を与える。
品質を評価するために、これらの定義によってランク付けされた特徴は、既存の特徴選択技術と競合することを示す。
論文 参考訳(メタデータ) (2020-06-08T17:07:35Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。