論文の概要: (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Explainability
- arxiv url: http://arxiv.org/abs/2306.02312v1
- Date: Sun, 4 Jun 2023 09:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 18:36:25.502914
- Title: (Un)reasonable Allure of Ante-hoc Interpretability for High-stakes
Domains: Transparency Is Necessary but Insufficient for Explainability
- Title(参考訳): 高度領域におけるアンテホック解釈可能性の(不合理な)アレー : 透明性は必要だが説明可能性には不十分である
- Authors: Kacper Sokol and Julia E. Vogt
- Abstract要約: アンテホック解釈能力は、医療などの高度な領域において、説明可能な機械学習の聖杯となっている。
構造がドメイン固有の制約に従属する予測モデルや、本質的に透明なモデルを指すこともある。
私たちはこの概念を解き放ち、高い領域にまたがる安全なデプロイに必要なものを理解します。
- 参考スコア(独自算出の注目度): 25.542848590851758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ante-hoc interpretability has become the holy grail of explainable machine
learning for high-stakes domains such as healthcare; however, this notion is
elusive, lacks a widely-accepted definition and depends on the deployment
context. It can refer to predictive models whose structure adheres to
domain-specific constraints, or ones that are inherently transparent. The
latter notion assumes observers who judge this quality, whereas the former
presupposes them to have technical and domain expertise, in certain cases
rendering such models unintelligible. Additionally, its distinction from the
less desirable post-hoc explainability, which refers to methods that construct
a separate explanatory model, is vague given that transparent predictors may
still require (post-)processing to yield satisfactory explanatory insights.
Ante-hoc interpretability is thus an overloaded concept that comprises a range
of implicit properties, which we unpack in this paper to better understand what
is needed for its safe deployment across high-stakes domains. To this end, we
outline model- and explainer-specific desiderata that allow us to navigate its
distinct realisations in view of the envisaged application and audience.
- Abstract(参考訳): アンテホック解釈性は、医療などの高度な領域において、説明可能な機械学習の聖杯となっているが、この概念は根源的であり、広く受け入れられた定義に欠け、デプロイメントコンテキストに依存している。
構造がドメイン固有の制約に従う予測モデルや、本質的に透明なモデルを指すこともある。
後者の概念は、この品質を判断するオブザーバーを仮定するが、前者は技術とドメインの専門知識を持っていると仮定し、ある場合にはそのようなモデルを知性に欠ける。
加えて、別の説明モデルを構築する方法を指す、望ましくないポスト・ホックな説明可能性との区別は、透明な予測者が十分に説明できる洞察を得るのにまだ(後)処理を必要とする場合を考えると曖昧である。
したがって、アンテホックな解釈可能性(ante-hoc interpretability)は、さまざまな暗黙的プロパティを含むオーバーロードされた概念であり、我々は、高スループットドメインをまたいだ安全なデプロイに必要なものをより理解するために、この論文で解き明かした。
この目的のために、私たちはモデルと説明者固有のデシデラタを概説し、観察されたアプリケーションとオーディエンスの観点から、その明確な実現をナビゲートできるようにします。
関連論文リスト
- Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - InterpretCC: Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
ニューラルネットワークの解釈性は、3つの重要な要件間のトレードオフである。
本稿では,人間中心の解釈可能性を保証する,解釈可能なニューラルネットワークのファミリであるInterpretCCを提案する。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - AS-XAI: Self-supervised Automatic Semantic Interpretation for CNN [5.42467030980398]
本稿では,自動意味解釈人工知能(AS-XAI)フレームワークを提案する。
モデル決定のグローバルな意味解釈には、透過的な埋め込み意味抽出空間と行中心主成分分析(PCA)を用いる。
提案手法は, 流通圏内における共通意味論的解釈を含む, 広範囲な実践的応用を提供する。
論文 参考訳(メタデータ) (2023-12-02T10:06:54Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - A Style and Semantic Memory Mechanism for Domain Generalization [108.98041306507372]
ドメイン内スタイルの不変性は、ドメインの一般化の効率を改善する上で重要な要素である。
本稿では,ドメイン間の意味的特徴の共通性を学習する上で特に有効な,新しい「判断」機構を提案する。
提案手法は最先端の手法をクリアマージンで超越している。
論文 参考訳(メタデータ) (2021-12-14T16:23:24Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - TripleTree: A Versatile Interpretable Representation of Black Box Agents
and their Environments [9.822870889029113]
本稿では,状態空間を凸領域に識別する一般理解に向けて,多目的な第一歩を提案する。
我々は、CART決定木アルゴリズムの新しい変種を用いて、そのような表現を作成する。
予測,可視化,ルールに基づく説明を通じて,ブラックボックスエージェントの実践的理解を促進する方法を示す。
論文 参考訳(メタデータ) (2020-09-10T09:22:27Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。