論文の概要: A general approach to compute the relevance of middle-level input
features
- arxiv url: http://arxiv.org/abs/2010.08639v2
- Date: Thu, 28 Jan 2021 00:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:29:08.813997
- Title: A general approach to compute the relevance of middle-level input
features
- Title(参考訳): 中レベルの入力特徴の関連性を計算する一般的なアプローチ
- Authors: Andrea Apicella, Salvatore Giugliano, Francesco Isgr\`o, Roberto
Prevete
- Abstract要約: ミドルレベルの説明は、いくつかの低レベルの説明の欠陥を軽減するために導入された。
MLモデル応答を尊重する中レベル説明の要素を正しく評価するための一般的なアプローチは、文献では提案されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a novel general framework, in the context of eXplainable
Artificial Intelligence (XAI), to construct explanations for the behaviour of
Machine Learning (ML) models in terms of middle-level features. One can isolate
two different ways to provide explanations in the context of XAI: low and
middle-level explanations. Middle-level explanations have been introduced for
alleviating some deficiencies of low-level explanations such as, in the context
of image classification, the fact that human users are left with a significant
interpretive burden: starting from low-level explanations, one has to identify
properties of the overall input that are perceptually salient for the human
visual system. However, a general approach to correctly evaluate the elements
of middle-level explanations with respect ML model responses has never been
proposed in the literature.
- Abstract(参考訳): この研究は、機械学習(ML)モデルの振る舞いを中間的な特徴の観点から説明するために、eXplainable Artificial Intelligence(XAI)の文脈で、新しい一般的なフレームワークを提案する。
XAIの文脈で説明を提供するための2つの異なる方法を分離することができる。
画像分類の文脈において、人間のユーザーが重要な解釈的負担を負うという事実のような低レベルの説明のいくつかの欠点を緩和するために、中間レベルの説明が導入された。
しかし,中レベル説明の要素をmlモデル応答に関連づけて正しく評価する一般的なアプローチは文献に提案されていない。
関連論文リスト
- Decompose the model: Mechanistic interpretability in image models with Generalized Integrated Gradients (GIG) [24.02036048242832]
本稿では,すべての中間層を経由した入力から,データセット全体の最終的な出力まで,経路全体をトレースする新しい手法を提案する。
本稿では,PFV(Pointwise Feature Vectors)とERF(Effective Receptive Fields)を用いて,モデル埋め込みを解釈可能な概念ベクトルに分解する。
そして,汎用統合勾配(GIG)を用いて概念ベクトル間の関係を計算し,モデル行動の包括的,データセットワイドな解析を可能にする。
論文 参考訳(メタデータ) (2024-09-03T05:19:35Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - A general approach for Explanations in terms of Middle Level Features [0.0]
本稿では,入力特徴量の観点から説明を構築可能なXAI一般手法を提案する。
MLF(Middle-Level input Features)は、ユーザにとってより健全で理解しやすい入力特性を表す。
2つの異なるデータセットと3つの異なるタイプのMLFを用いて、我々のアプローチを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-09T12:51:40Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainable Image Classification with Evidence Counterfactual [0.0]
画像分類のためのモデルに依存しないインスタンスレベルの説明法としてSEDCを導入する。
ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。
我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。
論文 参考訳(メタデータ) (2020-04-16T08:02:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。