論文の概要: Interpretable Representations in Explainable AI: From Theory to Practice
- arxiv url: http://arxiv.org/abs/2008.07007v2
- Date: Fri, 30 Sep 2022 19:40:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 08:58:46.178344
- Title: Interpretable Representations in Explainable AI: From Theory to Practice
- Title(参考訳): 説明可能なAIにおける解釈可能な表現:理論から実践へ
- Authors: Kacper Sokol and Peter Flach
- Abstract要約: 解釈可能な表現はブラックボックス予測システム用に設計された多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
我々の研究は、信頼できる解釈可能な表現を設計するための様々な勧告を支持している。
- 参考スコア(独自算出の注目度): 21.58324172085553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretable representations are the backbone of many explainers designed
for black-box predictive systems based on artificial intelligence and machine
learning algorithms. They translate the low-level data representation necessary
for good predictive performance into high-level human-intelligible concepts
used to convey the explanatory insights. Notably, the explanation type and its
cognitive complexity are directly controlled by the interpretable
representation, allowing to target a particular audience and use case. However,
many explainers built upon interpretable representations overlook their merit
and fall back on default solutions that often carry implicit assumptions,
thereby degrading the explanatory power and reliability of such techniques. To
address this problem, we study properties of interpretable representations that
encode presence and absence of human-comprehensible concepts. We show how they
are operationalised for tabular, image and text data; discuss their
assumptions, strengths and weaknesses; identify their core building blocks; and
scrutinise their parameterisation. In particular, this in-depth analysis allows
us to pinpoint their explanatory properties, desiderata and scope for
(malicious) manipulation in the context of tabular data, where a linear model
is used to quantify the influence of interpretable concepts on a black-box
prediction. Our findings support a range of recommendations for designing
trustworthy interpretable representations; specifically, the benefits of
class-aware (supervised) discretisation of tabular data, e.g., with decision
trees, and sensitivity of image interpretable representations to segmentation
granularity and occlusion colour.
- Abstract(参考訳): 解釈可能表現は、人工知能と機械学習アルゴリズムに基づくブラックボックス予測システムのために設計された多くの説明者のバックボーンである。
優れた予測性能に必要な低レベルのデータ表現を、説明的洞察を伝えるために使用される高度な人間知的な概念に変換する。
特に、説明タイプとその認知的複雑性は解釈可能な表現によって直接制御され、特定のオーディエンスとユースケースをターゲットにすることができる。
しかし、解釈可能な表現の上に構築された多くの説明者は、その利点を軽視し、暗黙の仮定をしばしば持つデフォルトのソリューションに逆らう。
この問題に対処するために,人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
表、画像、テキストデータに対してどのように運用されているかを示し、仮定、強度、弱点について議論し、中核となるビルディングブロックを特定し、パラメータ化を精査する。
特に,この深度解析により,図表データの文脈における記述特性,デシラタ,(有害な)操作範囲を特定でき,そこでは線形モデルを用いて,解釈可能な概念がブラックボックス予測に与える影響を定量化することができる。
本研究は,信頼に値する解釈可能な表現を設計するための様々な推奨事項,特に表データ(例えば決定木)のクラス認識(教師付き)非表示化の利点,および画像解釈可能な表現のセグメンテーション粒度と咬合色に対する感受性について支持する。
関連論文リスト
- InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Comprehensibility [25.542848590851758]
アンテホック解釈能力は、医療などの高度な領域において、説明可能な人工知能の聖杯となっている。
構造がドメイン固有の制約に従属する予測モデルや、本質的に透明なモデルを指すこともある。
私たちはこの概念を解き放ち、高い領域にまたがる安全な採用に必要なものをよりよく理解します。
論文 参考訳(メタデータ) (2023-06-04T09:34:41Z) - ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations [26.500149465292246]
本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-06-23T08:37:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Desiderata for Representation Learning: A Causal Perspective [104.3711759578494]
我々は表現学習の因果的視点を採り、非純粋性と効率性(教師なし表現学習)と非教師なし表現学習(教師なし表現学習)を定式化する。
これは、関心のデシダータを満たす程度を計算可能なメトリクスで評価し、単一の観測データセットから不純物や不整合表現を学習する。
論文 参考訳(メタデータ) (2021-09-08T17:33:54Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。