論文の概要: Concept-based Explainable Artificial Intelligence: A Survey
- arxiv url: http://arxiv.org/abs/2312.12936v1
- Date: Wed, 20 Dec 2023 11:27:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 15:50:47.468385
- Title: Concept-based Explainable Artificial Intelligence: A Survey
- Title(参考訳): 概念に基づく説明可能な人工知能:調査
- Authors: Eleonora Poeta, Gabriele Ciravegna, Eliana Pastor, Tania Cerquitelli,
Elena Baralis
- Abstract要約: 生の機能を説明に利用することは、近年、いくつかの作品で議論されている。
統一された分類と正確なフィールド定義はいまだに欠けている。
本稿では,C-XAIのアプローチを徹底的にレビューすることで,そのギャップを埋める。
- 参考スコア(独自算出の注目度): 16.580100294489508
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The field of explainable artificial intelligence emerged in response to the
growing need for more transparent and reliable models. However, using raw
features to provide explanations has been disputed in several works lately,
advocating for more user-understandable explanations. To address this issue, a
wide range of papers proposing Concept-based eXplainable Artificial
Intelligence (C-XAI) methods have arisen in recent years. Nevertheless, a
unified categorization and precise field definition are still missing. This
paper fills the gap by offering a thorough review of C-XAI approaches. We
define and identify different concepts and explanation types. We provide a
taxonomy identifying nine categories and propose guidelines for selecting a
suitable category based on the development context. Additionally, we report
common evaluation strategies including metrics, human evaluations and dataset
employed, aiming to assist the development of future methods. We believe this
survey will serve researchers, practitioners, and domain experts in
comprehending and advancing this innovative field.
- Abstract(参考訳): 説明可能な人工知能の分野は、より透明で信頼性の高いモデルの必要性の高まりに対応して現れた。
しかし、最近いくつかの作品で生の機能を説明に用い、よりユーザ理解可能な説明を提唱している。
この問題に対処するために、概念ベースのeXplainable Artificial Intelligence(C-XAI)手法を提案する幅広い論文が近年出現している。
それでも、統一された分類と正確なフィールド定義はいまだに欠けている。
本稿では,C-XAIのアプローチを徹底的にレビューすることで,そのギャップを埋める。
異なる概念と説明型を定義し、識別する。
我々は,9つのカテゴリを分類し,開発コンテキストに基づいて適切なカテゴリを選択するためのガイドラインを提案する。
また,今後の手法開発を支援するために,指標,人的評価,データセットなどの共通評価戦略について報告する。
この調査は、この革新的な分野の理解と推進に研究者、実践者、ドメインの専門家に役立ちます。
関連論文リスト
- Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - A Taxonomy of Decentralized Identifier Methods for Practitioners [50.76687001060655]
SSI(Self-Sovereign Identity)の新たなアイデンティティ管理パラダイムの中核となるのは、W3C Decentralized Identifiers(DID)標準である。
本稿では, DID手法を選択する際に, 実践者が情報的意思決定を行えるようにするためのDID手法の分類法を提案する。
論文 参考訳(メタデータ) (2023-10-18T13:01:40Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - From Attribution Maps to Human-Understandable Explanations through
Concept Relevance Propagation [16.783836191022445]
eXplainable Artificial Intelligence(XAI)の分野は、今日の強力だが不透明なディープラーニングモデルに透明性をもたらすことを目指している。
局所的なXAI手法は属性マップの形で個々の予測を説明するが、グローバルな説明手法はモデルが一般的にエンコードするために学んだ概念を視覚化する。
論文 参考訳(メタデータ) (2022-06-07T12:05:58Z) - Concept Embedding Analysis: A Review [0.0]
ディープニューラルネットワーク(DNN)は、人間のマシンシステムの安全性、セキュリティ、公正性に影響を与える可能性のある多くのアプリケーションに導入されている。
概念(埋め込み)分析(CA)の研究分野はこの問題に対処する。
この研究は、CAの一般的な定義とCAメソッドの分類を確立し、文学からいくつかのアイデアをまとめる。
論文 参考訳(メタデータ) (2022-03-25T20:57:16Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Explainable Artificial Intelligence: a Systematic Review [2.741266294612776]
機械学習は、非常に正確なモデルの開発につながったが、説明可能性や解釈可能性に欠けていた。
この問題に対処するための多くの手法が提案され、開発され、テストされている。
この体系的なレビューは、これらの手法を階層的な分類システムでクラスタリングすることで、知識の体系に寄与する。
論文 参考訳(メタデータ) (2020-05-29T21:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。