論文の概要: A Human-Centered Interpretability Framework Based on Weight of Evidence
- arxiv url: http://arxiv.org/abs/2104.13299v1
- Date: Tue, 27 Apr 2021 16:13:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:37:36.048244
- Title: A Human-Centered Interpretability Framework Based on Weight of Evidence
- Title(参考訳): エビデンス重みに基づく人間中心の解釈可能性フレームワーク
- Authors: David Alvarez-Melis, Harmanpreet Kaur, Hal Daum\'e III, Hanna Wallach,
Jennifer Wortman Vaughan
- Abstract要約: 人間中心のアプローチで機械学習を解釈します。
人間にとって意味のある機械生成説明のための設計原則のリストを提案します。
本手法は高次元のマルチクラス設定に適応可能であることを示す。
- 参考スコア(独自算出の注目度): 26.94750208505883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we take a human-centered approach to interpretable machine
learning. First, drawing inspiration from the study of explanation in
philosophy, cognitive science, and the social sciences, we propose a list of
design principles for machine-generated explanations that are meaningful to
humans. Using the concept of weight of evidence from information theory, we
develop a method for producing explanations that adhere to these principles. We
show that this method can be adapted to handle high-dimensional, multi-class
settings, yielding a flexible meta-algorithm for generating explanations. We
demonstrate that these explanations can be estimated accurately from finite
samples and are robust to small perturbations of the inputs. We also evaluate
our method through a qualitative user study with machine learning
practitioners, where we observe that the resulting explanations are usable
despite some participants struggling with background concepts like prior class
probabilities. Finally, we conclude by surfacing design implications for
interpretability tools
- Abstract(参考訳): 本稿では,人間中心のアプローチで機械学習を解釈する。
まず、哲学、認知科学、社会科学における説明研究からインスピレーションを得て、人間にとって意味のある機械生成説明のための設計原則の一覧を提案する。
情報理論からエビデンスを重み付けする概念を用いて,これらの原理に従う説明書を作成する方法を開発した。
本手法は,高次元マルチクラス設定に適応でき,説明を生成できる柔軟なメタアゴリテームが得られることを示す。
これらの説明は有限サンプルから正確に推定でき、入力の小さな摂動に対して頑健であることを示す。
また,機械学習実践者との質的ユーザスタディを通じて評価を行い,事前クラス確率などの背景概念に苦慮する参加者がいたにもかかわらず,その説明が有効であることを観察した。
最後に,解釈可能性ツールの設計上の意味について述べる。
関連論文リスト
- Concept Induction using LLMs: a user experiment for assessment [1.1982127665424676]
本研究では,人間に対する説明として意味のある高レベルな概念を生成するために,LLM(Large Language Model)の可能性を探る。
我々は、LLMによって生成された概念を、人間によって生成された概念とECII概念誘導システムという、他の2つの方法と比較する。
人為的な説明は依然として優れているが, GPT-4 から派生した概念は, ECII が生成した概念よりも人間にとって理解しやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-18T03:22:02Z) - Estimation of Concept Explanations Should be Uncertainty Aware [39.598213804572396]
概念説明(Concept Explanations)と呼ばれる特定の概念について研究し、人間の理解可能な概念を用いてモデルを解釈することを目的としている。
簡単な解釈で人気があるが、概念的な説明は騒々しいことが知られている。
本稿では,これらの問題に対処する不確実性を考慮したベイズ推定手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T11:17:27Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Overlooked factors in concept-based explanations: Dataset choice,
concept learnability, and human capability [25.545486537295144]
概念に基づく解釈可能性法は、事前に定義されたセマンティック概念のセットを使用して、ディープニューラルネットワークモデル予測を説明することを目的としている。
その人気にもかかわらず、文学によって十分に理解され、明瞭化されていない限界に悩まされている。
概念に基づく説明において、よく見過ごされる3つの要因を分析した。
論文 参考訳(メタデータ) (2022-07-20T01:59:39Z) - From Attribution Maps to Human-Understandable Explanations through
Concept Relevance Propagation [16.783836191022445]
eXplainable Artificial Intelligence(XAI)の分野は、今日の強力だが不透明なディープラーニングモデルに透明性をもたらすことを目指している。
局所的なXAI手法は属性マップの形で個々の予測を説明するが、グローバルな説明手法はモデルが一般的にエンコードするために学んだ概念を視覚化する。
論文 参考訳(メタデータ) (2022-06-07T12:05:58Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。