論文の概要: A general approach for Explanations in terms of Middle Level Features
- arxiv url: http://arxiv.org/abs/2106.05037v1
- Date: Wed, 9 Jun 2021 12:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 15:25:21.816180
- Title: A general approach for Explanations in terms of Middle Level Features
- Title(参考訳): 中間的特徴の観点による説明の一般的アプローチ
- Authors: Andrea Apicella, Francesco Isgr\`o, Roberto Prevete
- Abstract要約: 本稿では,入力特徴量の観点から説明を構築可能なXAI一般手法を提案する。
MLF(Middle-Level input Features)は、ユーザにとってより健全で理解しやすい入力特性を表す。
2つの異なるデータセットと3つの異なるタイプのMLFを用いて、我々のアプローチを実験的に検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, it is growing interest to make Machine Learning (ML) systems more
understandable and trusting to general users. Thus, generating explanations for
ML system behaviours that are understandable to human beings is a central
scientific and technological issue addressed by the rapidly growing research
area of eXplainable Artificial Intelligence (XAI). Recently, it is becoming
more and more evident that new directions to create better explanations should
take into account what a good explanation is to a human user, and consequently,
develop XAI solutions able to provide user-centred explanations. This paper
suggests taking advantage of developing an XAI general approach that allows
producing explanations for an ML system behaviour in terms of different and
user-selected input features, i.e., explanations composed of input properties
that the human user can select according to his background knowledge and goals.
To this end, we propose an XAI general approach which is able: 1) to construct
explanations in terms of input features that represent more salient and
understandable input properties for a user, which we call here Middle-Level
input Features (MLFs), 2) to be applied to different types of MLFs. We
experimentally tested our approach on two different datasets and using three
different types of MLFs. The results seem encouraging.
- Abstract(参考訳): 今日では、機械学習(ML)システムをより理解しやすく、一般ユーザーに信頼することへの関心が高まっている。
したがって、人間に理解可能なMLシステム行動の説明を生成することは、eXplainable Artificial Intelligence (XAI)の急速に成長する研究領域によって対処される、科学と技術の中心的な問題である。
近年,より優れた説明を創出するための新たな方向性が,ユーザにとってよい説明が何かを考えれば,ユーザ中心の説明を提供することのできるXAIソリューションの開発に向けられつつある。
本稿では,機械学習システムの動作を,異なる入力特徴,すなわち,ユーザが背景知識や目標に応じて選択できる入力特性からなる説明で説明することができるような,XAIの汎用的アプローチを活用することを提案する。
そこで,本稿では,(1)ユーザに対してより高度で理解可能な入力特性を表す入力特徴量を用いて説明文を構築すること,(2)異なるタイプのmlfに適用すること,というxaiの一般的なアプローチを提案する。
2つの異なるデータセットで実験を行い, 3種類のmlfを用いて実験を行った。
結果は好意的に思える。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Selective Explanations: Leveraging Human Input to Align Explainable AI [40.33998268146951]
人間の入力を小さなサンプルに利用して選択的な説明を生成するための一般的なフレームワークを提案する。
事例として,意思決定支援タスクを用いて,意思決定者が決定タスクにどう関係するかに基づいて,選択的な説明を探索する。
我々の実験は、AIへの過度な依存を減らすための選択的な説明の可能性を実証している。
論文 参考訳(メタデータ) (2023-01-23T19:00:02Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - A general approach to compute the relevance of middle-level input
features [0.0]
ミドルレベルの説明は、いくつかの低レベルの説明の欠陥を軽減するために導入された。
MLモデル応答を尊重する中レベル説明の要素を正しく評価するための一般的なアプローチは、文献では提案されていない。
論文 参考訳(メタデータ) (2020-10-16T21:46:50Z) - The Role of Individual User Differences in Interpretable and Explainable
Machine Learning Systems [0.3169089186688223]
本研究では,機械学習が生成したモデル出力から,個人のスキルや性格特性が解釈可能性,説明可能性,知識発見をどのように予測するかを検討する。
我々の研究は、人間がどのように数値的な刺激を処理するかという主要な理論であるファジィ・トレース理論に依存している。
論文 参考訳(メタデータ) (2020-09-14T18:15:00Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。