論文の概要: Efficient computation of contrastive explanations
- arxiv url: http://arxiv.org/abs/2010.02647v2
- Date: Mon, 4 Jan 2021 10:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 05:36:04.139238
- Title: Efficient computation of contrastive explanations
- Title(参考訳): 対照的な説明の効率的な計算
- Authors: Andr\'e Artelt and Barbara Hammer
- Abstract要約: 対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 8.132423340684568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing deployment of machine learning systems in practice,
transparency and explainability have become serious issues. Contrastive
explanations are considered to be useful and intuitive, in particular when it
comes to explaining decisions to lay people, since they mimic the way in which
humans explain. Yet, so far, comparably little research has addressed
computationally feasible technologies, which allow guarantees on uniqueness and
optimality of the explanation and which enable an easy incorporation of
additional constraints. Here, we will focus on specific types of models rather
than black-box technologies. We study the relation of contrastive and
counterfactual explanations and propose mathematical formalizations as well as
a 2-phase algorithm for efficiently computing (plausible) pertinent positives
of many standard machine learning models.
- Abstract(参考訳): 機械学習システムの実践的な展開の増加に伴い、透明性と説明可能性が深刻な問題となっている。
対照的な説明は有益で直感的なものと考えられており、特に人間が説明する方法を模倣しているため、人を配置する決定について説明する場合が多い。
しかし、これまでのところ、説明の独特性と最適性を保証し、追加の制約を容易に組み込むことができる計算可能な技術に対処する研究はほとんどない。
ここでは、ブラックボックス技術ではなく、特定のタイプのモデルに焦点を当てます。
比較的および反事実的説明の関係について検討し、多くの標準機械学習モデルの有意な正を効率的に計算する2相アルゴリズムとともに数学的形式化を提案する。
関連論文リスト
- T-Explainer: A Model-Agnostic Explainability Framework Based on Gradients [5.946429628497358]
T-ExplainerはTaylorの拡張に基づく新しい局所的な帰属説明器である。
局所的精度や一貫性などの望ましい特性があり、T-Explainerは複数の実行で安定している。
論文 参考訳(メタデータ) (2024-04-25T10:40:49Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。