論文の概要: Instance-wise or Class-wise? A Tale of Neighbor Shapley for
Concept-based Explanation
- arxiv url: http://arxiv.org/abs/2109.01369v1
- Date: Fri, 3 Sep 2021 08:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 13:55:57.354699
- Title: Instance-wise or Class-wise? A Tale of Neighbor Shapley for
Concept-based Explanation
- Title(参考訳): インスタンスサイドかクラスサイドか?
概念に基づく説明のための隣人シャプリー物語
- Authors: Jiahui Li, Kun Kuang, Lin Li, Long Chen, Songyang Zhang, Jian Shao,
Jun Xiao
- Abstract要約: ディープニューラルネットワークは多くのデータ駆動型および予測指向のアプリケーションで顕著なパフォーマンスを示している。
彼らの最も大きな欠点は、解釈可能性の欠如である。
- 参考スコア(独自算出の注目度): 37.033629287045784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks have demonstrated remarkable performance in many
data-driven and prediction-oriented applications, and sometimes even perform
better than humans. However, their most significant drawback is the lack of
interpretability, which makes them less attractive in many real-world
applications. When relating to the moral problem or the environmental factors
that are uncertain such as crime judgment, financial analysis, and medical
diagnosis, it is essential to mine the evidence for the model's prediction
(interpret model knowledge) to convince humans. Thus, investigating how to
interpret model knowledge is of paramount importance for both academic research
and real applications.
- Abstract(参考訳): ディープニューラルネットワークは多くのデータ駆動型および予測指向のアプリケーションで顕著なパフォーマンスを示しており、時には人間よりも優れたパフォーマンスを示すこともある。
しかし、彼らの最も大きな欠点は解釈可能性の欠如であり、多くの現実世界のアプリケーションでは魅力的ではない。
モラル問題や犯罪判断、金融分析、医療診断など不確実性のある環境要因に関連する場合には、モデルの予測(モデル知識の解釈)の証拠をマイニングし、人間を説得することが不可欠である。
したがって、モデル知識の解釈方法を研究することは、学術研究と実応用の両方において最重要となる。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - A Survey of Deep Causal Models and Their Industrial Applications [5.459987844611099]
本稿では,ニューラルネットワークに基づく深い因果モデルの概要について概説する。
産業における因果効果推定の典型的な応用について概説する。
論文 参考訳(メタデータ) (2022-09-19T09:05:05Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Mixture of Linear Models Co-supervised by Deep Neural Networks [14.831346286039151]
本稿では,比較的単純な説明可能なモデルとディープニューラルネットワーク(DNN)モデルとのギャップを埋めるためのアプローチを提案する。
私たちの主なアイデアは、DNNからのガイダンスでトレーニングされた差別モデルの組み合わせです。
論文 参考訳(メタデータ) (2021-08-05T02:08:35Z) - Causality in Neural Networks -- An Extended Abstract [0.0]
因果推論は、人間が使用する主要な学習および説明ツールである。
因果性の概念を機械学習に導入することは、より良い学習と説明可能なモデルを提供するのに役立つ。
論文 参考訳(メタデータ) (2021-06-03T09:52:36Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Evaluating the Interpretability of Generative Models by Interactive
Reconstruction [30.441247705313575]
生成モデル表現の人間解釈可能性の定量化を課題とする。
このタスクのパフォーマンスは、ベースラインアプローチよりも、絡み合ったモデルと絡み合ったモデルをはるかに確実に区別する。
論文 参考訳(メタデータ) (2021-02-02T02:38:14Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。