論文の概要: Interpretable Representations in Explainable AI: From Theory to Practice
- arxiv url: http://arxiv.org/abs/2008.07007v3
- Date: Sat, 23 Dec 2023 14:00:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 23:37:08.123875
- Title: Interpretable Representations in Explainable AI: From Theory to Practice
- Title(参考訳): 説明可能なAIにおける解釈可能な表現:理論から実践へ
- Authors: Kacper Sokol and Peter Flach
- Abstract要約: 解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
- 参考スコア(独自算出の注目度): 8.306592861431351
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretable representations are the backbone of many explainers that target
black-box predictive systems based on artificial intelligence and machine
learning algorithms. They translate the low-level data representation necessary
for good predictive performance into high-level human-intelligible concepts
used to convey the explanatory insights. Notably, the explanation type and its
cognitive complexity are directly controlled by the interpretable
representation, tweaking which allows to target a particular audience and use
case. However, many explainers built upon interpretable representations
overlook their merit and fall back on default solutions that often carry
implicit assumptions, thereby degrading the explanatory power and reliability
of such techniques. To address this problem, we study properties of
interpretable representations that encode presence and absence of
human-comprehensible concepts. We demonstrate how they are operationalised for
tabular, image and text data; discuss their assumptions, strengths and
weaknesses; identify their core building blocks; and scrutinise their
configuration and parameterisation. In particular, this in-depth analysis
allows us to pinpoint their explanatory properties, desiderata and scope for
(malicious) manipulation in the context of tabular data where a linear model is
used to quantify the influence of interpretable concepts on a black-box
prediction. Our findings lead to a range of recommendations for designing
trustworthy interpretable representations; specifically, the benefits of
class-aware (supervised) discretisation of tabular data, e.g., with decision
trees, and sensitivity of image interpretable representations to segmentation
granularity and occlusion colour.
- Abstract(参考訳): 解釈可能な表現は、人工知能と機械学習アルゴリズムに基づくブラックボックス予測システムをターゲットにした多くの説明者のバックボーンである。
優れた予測性能に必要な低レベルのデータ表現を、説明的洞察を伝えるために使用される高度な人間知的な概念に変換する。
特に、説明タイプとその認知的複雑性は、解釈可能な表現によって直接制御され、特定のオーディエンスとユースケースをターゲットにすることができる。
しかし、解釈可能な表現の上に構築された多くの説明者は、その利点を軽視し、暗黙の仮定をしばしば持つデフォルトのソリューションに逆らう。
この問題に対処するために,人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
表、画像、テキストデータに対してどのように運用されているかを示し、仮定、強度、弱点について議論し、中核となるビルディングブロックを特定し、設定とパラメータ化を精査する。
特に、この詳細な分析により、ブラックボックス予測に対する解釈可能な概念の影響を定量化するために線形モデルが使用される表データコンテキストにおいて、説明特性、デシデラタ、および(悪意のある)操作のスコープを特定できる。
本研究は,信頼に値する解釈可能な表現,特に表データ,例えば決定木,画像解釈可能な表現のセグメンテーション粒度やオクルージョン色に対する感度に対するクラス認識(教師あり)による離散化の利点を設計するための様々な推奨事項を導いた。
関連論文リスト
- InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Comprehensibility [25.542848590851758]
アンテホック解釈能力は、医療などの高度な領域において、説明可能な人工知能の聖杯となっている。
構造がドメイン固有の制約に従属する予測モデルや、本質的に透明なモデルを指すこともある。
私たちはこの概念を解き放ち、高い領域にまたがる安全な採用に必要なものをよりよく理解します。
論文 参考訳(メタデータ) (2023-06-04T09:34:41Z) - ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations [26.500149465292246]
本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-06-23T08:37:32Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Desiderata for Representation Learning: A Causal Perspective [104.3711759578494]
我々は表現学習の因果的視点を採り、非純粋性と効率性(教師なし表現学習)と非教師なし表現学習(教師なし表現学習)を定式化する。
これは、関心のデシダータを満たす程度を計算可能なメトリクスで評価し、単一の観測データセットから不純物や不整合表現を学習する。
論文 参考訳(メタデータ) (2021-09-08T17:33:54Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。