論文の概要: Integrating Prior Knowledge in Post-hoc Explanations
- arxiv url: http://arxiv.org/abs/2204.11634v1
- Date: Mon, 25 Apr 2022 13:09:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 12:24:10.831781
- Title: Integrating Prior Knowledge in Post-hoc Explanations
- Title(参考訳): ポストホック説明における事前知識の統合
- Authors: Adulam Jeyasothy and Thibault Laugel and Marie-Jeanne Lesot and
Christophe Marsala and Marcin Detyniecki
- Abstract要約: ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
- 参考スコア(独自算出の注目度): 3.6066164404432883
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of eXplainable Artificial Intelligence (XAI), post-hoc
interpretability methods aim at explaining to a user the predictions of a
trained decision model. Integrating prior knowledge into such interpretability
methods aims at improving the explanation understandability and allowing for
personalised explanations adapted to each user. In this paper, we propose to
define a cost function that explicitly integrates prior knowledge into the
interpretability objectives: we present a general framework for the
optimization problem of post-hoc interpretability methods, and show that user
knowledge can thus be integrated to any method by adding a compatibility term
in the cost function. We instantiate the proposed formalization in the case of
counterfactual explanations and propose a new interpretability method called
Knowledge Integration in Counterfactual Explanation (KICE) to optimize it. The
paper performs an experimental study on several benchmark data sets to
characterize the counterfactual instances generated by KICE, as compared to
reference methods.
- Abstract(参考訳): eXplainable Artificial Intelligence (XAI) の分野では、ポストホック解釈法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
このような解釈可能性手法への事前知識の統合は、説明の理解性の向上と、各ユーザに適応したパーソナライズされた説明を可能にすることを目的としている。
本稿では,先行知識を解釈可能性目標に明示的に統合するコスト関数を定義することを提案する。我々は,ポストホック解釈可能性法の最適化問題に対する一般的な枠組みを提案し,ユーザ知識をコスト関数に互換性項を追加することで任意の手法に統合できることを示す。
提案手法は,反事実説明の場合の形式化をインスタンス化し,その最適化のために知識統合(kice)と呼ばれる新しい解釈可能性手法を提案する。
本論文は,KICE が生成する実例を基準法と比較した,いくつかのベンチマークデータセットの実験的検討を行った。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - In-Context Editing: Learning Knowledge from Self-Induced Distributions [29.10148782152867]
本研究では,1ホットターゲットではなくコンテキスト分布を最適化するために,Consistent In-Context Editing (ICE)を導入する。
ICEは、勾配に基づくチューニング手法の堅牢性と有効性を向上し、モデルの整合性を維持するのを防ぐ。
我々は、知識編集の4つの重要な側面、すなわち正確性、局所性、一般化、言語的品質を分析し、その利点を実証する。
論文 参考訳(メタデータ) (2024-06-17T04:00:04Z) - Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Predictability and Comprehensibility in Post-Hoc XAI Methods: A
User-Centered Analysis [6.606409729669314]
ポストホック説明可能性法は、ブラックボックス機械学習モデルの予測を明らかにすることを目的としている。
我々は、LIMEとSHAPの2つの広く使われているツールにおいて、理解性と予測可能性を評価するために、ユーザスタディを実施している。
モデル決定境界付近のサンプルに対して説明を行うと,SHAPの理解度が大幅に低下することがわかった。
論文 参考訳(メタデータ) (2023-09-21T11:54:20Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - A general-purpose method for applying Explainable AI for Anomaly
Detection [6.09170287691728]
説明可能なAI(XAI)の必要性は十分に確立されているが、教師付き学習パラダイム以外では比較的公表されていない。
本稿では、教師なし異常検出のタスクに説明可能性と解釈可能性を適用するための原則的なアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2022-07-23T17:56:01Z) - AcME -- Accelerated Model-agnostic Explanations: Fast Whitening of the
Machine-Learning Black Box [1.7534486934148554]
解釈可能性のアプローチは、ユーザが待つことなく、実行可能な洞察を提供するべきです。
本稿では,グローバルレベルとローカルレベルの両方で特徴的重要性のスコアを迅速に提供する解釈可能性アプローチである,アクセレーションモデル非依存説明(AcME)を提案する。
AcMEは機能ランキングを計算しますが、機能値の変化がモデル予測にどのように影響するかを評価するために、What-if分析ツールも提供しています。
論文 参考訳(メタデータ) (2021-12-23T15:18:13Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。