論文の概要: Best of both worlds: local and global explanations with
human-understandable concepts
- arxiv url: http://arxiv.org/abs/2106.08641v1
- Date: Wed, 16 Jun 2021 09:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 04:07:29.171182
- Title: Best of both worlds: local and global explanations with
human-understandable concepts
- Title(参考訳): 両世界のベスト:人間理解可能な概念による地域的・グローバル的説明
- Authors: Jessica Schrouff, Sebastien Baur, Shaobo Hou, Diana Mincu, Eric
Loreaux, Ralph Blanes, James Wexler, Alan Karthikesalingam, Been Kim
- Abstract要約: 解釈可能性のテクニックは、モデルの決定の背後にある理論的根拠を提供することを目的としている。
提案手法は, 地上の真理と比較して, TCAVのグローバルな説明を改善するとともに, 有用な知見を提供する。
- 参考スコア(独自算出の注目度): 10.155485106226754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability techniques aim to provide the rationale behind a model's
decision, typically by explaining either an individual prediction (local
explanation, e.g. `why is this patient diagnosed with this condition') or a
class of predictions (global explanation, e.g. `why are patients diagnosed with
this condition in general'). While there are many methods focused on either
one, few frameworks can provide both local and global explanations in a
consistent manner. In this work, we combine two powerful existing techniques,
one local (Integrated Gradients, IG) and one global (Testing with Concept
Activation Vectors), to provide local, and global concept-based explanations.
We first validate our idea using two synthetic datasets with a known ground
truth, and further demonstrate with a benchmark natural image dataset. We test
our method with various concepts, target classes, model architectures and IG
baselines. We show that our method improves global explanations over TCAV when
compared to ground truth, and provides useful insights. We hope our work
provides a step towards building bridges between many existing local and global
methods to get the best of both worlds.
- Abstract(参考訳): 解釈可能性のテクニックは、モデルの決定の背後にある理論的根拠を提供することを目的としている。
「なぜこの患者がこの病気と診断されるのか」)または予測の類(言語説明など)。
「なぜ一般の患者はこの状態と診断されるのか。」
どちらの方法にも注目する方法はたくさんあるが、ローカルとグローバル両方の説明を一貫した方法で提供できるフレームワークは少ない。
本研究では,局所的およびグローバルな概念に基づく説明を提供するために,ローカル(Integrated Gradients, IG)とグローバル(Testing with Concept Activation Vectors)の2つの強力な既存技術を組み合わせる。
まず、2つの合成データセットを既知の真実で検証し、さらにベンチマーク自然画像データセットで実証する。
対象クラス,モデルアーキテクチャ,IGベースラインなど,さまざまな概念でメソッドをテストする。
提案手法は,地上の真実と比較してTCAVのグローバルな説明を改善し,有用な洞察を提供する。
私たちの仕事は、既存の多くのローカルメソッドとグローバルメソッドの間のブリッジを構築するためのステップを提供して、両方の世界を最大限に活用できることを願っています。
関連論文リスト
- GLEAMS: Bridging the Gap Between Local and Global Explanations [6.329021279685856]
本稿では,入力空間を分割し,各サブリージョン内で解釈可能なモデルを学習する新しい手法であるGLEAMSを提案する。
我々は、GLEAMSが合成データと実世界のデータの両方で有効であることを示し、その望ましい特性と人間の理解可能な洞察を強調した。
論文 参考訳(メタデータ) (2024-08-09T13:30:37Z) - Global Counterfactual Directions [0.0]
拡散オートエンコーダの潜時空間は,大域的方向の形で与えられた分類器の推論過程を符号化することを示す。
ブラックボックス方式で単一の画像のみを用いて2種類の方向を探索するプロキシベースの新しいアプローチを提案する。
我々は,GCDとLatent Integrated Gradientsを自然に組み合わせることで,新たなブラックボックス属性法を実現できることを示した。
論文 参考訳(メタデータ) (2024-04-18T20:03:56Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - Distillation with Contrast is All You Need for Self-Supervised Point
Cloud Representation Learning [53.90317574898643]
本稿では,自己教師付きポイントクラウド表現学習のためのシンプルで汎用的なフレームワークを提案する。
人類が世界を理解する方法に触発されて、我々は知識蒸留を利用して、グローバルな形状情報と、グローバルな形状と局所的な構造の関係の両方を学ぶ。
本手法は,線形分類および複数の下流タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2022-02-09T02:51:59Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Global-Local Bidirectional Reasoning for Unsupervised Representation
Learning of 3D Point Clouds [109.0016923028653]
局所構造とグローバル形状の双方向推論による点雲表現を人間の監督なしに学習する。
本研究では, 実世界の3次元オブジェクト分類データセットにおいて, 教師なしモデルが最先端の教師付き手法を超越していることを示す。
論文 参考訳(メタデータ) (2020-03-29T08:26:08Z) - Optimal Local Explainer Aggregation for Interpretable Prediction [12.934180951771596]
ブラックボックスマシン学習モデルを導入する際の意思決定者にとっての課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明器モデルの訓練である。
本稿では,情報パラメータに基づく新しい局所的説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-20T19:02:11Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z) - Model Agnostic Multilevel Explanations [31.831973884850147]
本稿では,典型的な局所的説明可能性法を前提として,マルチレベル説明木を構築するメタメソッドを提案する。
この木の葉は局所的な説明に対応し、根は大域的な説明に対応し、中間レベルは群データポイントの説明に対応する。
このようなマルチレベル構造は,データセット全体を特徴付ける説明をほとんど得られない,効果的なコミュニケーション形態でもある,と我々は主張する。
論文 参考訳(メタデータ) (2020-03-12T20:18:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。