論文の概要: Understanding surrogate explanations: the interplay between complexity,
fidelity and coverage
- arxiv url: http://arxiv.org/abs/2107.04309v1
- Date: Fri, 9 Jul 2021 08:43:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:57:36.313971
- Title: Understanding surrogate explanations: the interplay between complexity,
fidelity and coverage
- Title(参考訳): 代理説明を理解する: 複雑性と忠実さとカバレッジの相互作用
- Authors: Rafael Poyiadzi, Xavier Renard, Thibault Laugel, Raul
Santos-Rodriguez, Marcin Detyniecki
- Abstract要約: グローバルからローカルへの移行 – カバレッジの削減 – によって,より望ましい条件が実現できることが示されています。
複雑度,忠実度,カバレッジの相互作用を論じ,ユーザニーズの相違が問題の定式化につながるかを検討する。
- 参考スコア(独自算出の注目度): 5.094061357656677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper analyses the fundamental ingredients behind surrogate explanations
to provide a better understanding of their inner workings. We start our
exposition by considering global surrogates, describing the trade-off between
complexity of the surrogate and fidelity to the black-box being modelled. We
show that transitioning from global to local - reducing coverage - allows for
more favourable conditions on the Pareto frontier of fidelity-complexity of a
surrogate. We discuss the interplay between complexity, fidelity and coverage,
and consider how different user needs can lead to problem formulations where
these are either constraints or penalties. We also present experiments that
demonstrate how the local surrogate interpretability procedure can be made
interactive and lead to better explanations.
- Abstract(参考訳): 本稿では,サロゲート説明の背後にある基本成分を分析し,その内部動作の理解を深める。
我々は、グローバルサロゲートを考慮し、サロゲートの複雑さとブラックボックスがモデル化される忠実さの間のトレードオフを記述して、展示を開始する。
グローバルからローカルへの移行 - カバー範囲の削減 - により、サロゲートの忠実度-複雑度のパレートフロンティアにおいて、より好ましい条件が実現できることが示される。
複雑度,忠実度,カバレッジの相互作用を議論し,ユーザニーズの違いが制約やペナルティである問題定式化にどのようにつながるかを検討する。
また,局所的な代用的解釈可能性の手順をインタラクティブにし,より良い説明につながることを示す実験を行った。
関連論文リスト
- Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Disentangled Representation Learning with Transmitted Information
Bottleneck [73.0553263960709]
textbfDisTIB (textbfTransmitted textbfInformation textbfBottleneck for textbfDisd representation learning) は情報圧縮と保存のバランスを保った新しい目的である。
論文 参考訳(メタデータ) (2023-11-03T03:18:40Z) - Why Does Little Robustness Help? Understanding and Improving Adversarial
Transferability from Surrogate Training [24.376314203167016]
DNNの逆例(AE)は転送可能であることが示されている。
本稿では,敵対的伝達可能性の理解に向けてさらなる一歩を踏み出す。
論文 参考訳(メタデータ) (2023-07-15T19:20:49Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Global Counterfactual Explanations: Investigations, Implementations and
Improvements [12.343333815270402]
Actionable Recourse Summaries (AReS)は、Recourseの世界で唯一知られている対実的な説明フレームワークである。
本稿では,Recourse における唯一の国際対実的説明フレームワークである AReS の実装と改善に焦点をあてる。
論文 参考訳(メタデータ) (2022-04-14T12:21:23Z) - Finding Counterfactual Explanations through Constraint Relaxations [6.961253535504979]
インタラクティブな制約システムは、しばしばユーザーの制約が矛盾するため、実現不可能(解決策がない)に悩まされる。
不実現性を取り戻すための一般的なアプローチは、システム内の衝突を引き起こす制約を取り除くことである。
本稿では,過度に制約された制約満足度問題における競合検出と最大緩和に基づく反復的手法を提案する。
論文 参考訳(メタデータ) (2022-04-07T13:18:54Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Interrogating the Black Box: Transparency through Information-Seeking
Dialogues [9.281671380673306]
本稿では,倫理政策の遵守を調査するために,学習エージェントに質問する調査エージェントを構築することを提案する。
この形式的対話フレームワークが本論文の主な貢献である。
形式的な対話フレームワークは、コンプライアンスチェックの分野と不透明なシステムの特性の分析の両方において、多くの道を開きます。
論文 参考訳(メタデータ) (2021-02-09T09:14:04Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - A framework for step-wise explaining how to solve constraint
satisfaction problems [21.96171133035504]
本研究では,人に対する理解が容易な方法で,伝播時に行うことができる推論ステップを説明することの課題について検討する。
そこで我々は, 制約解決者説明可能な機関を提供することを目標とし, 問題解決者への信頼構築に役立てる。
論文 参考訳(メタデータ) (2020-06-11T11:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。