論文の概要: XAI Handbook: Towards a Unified Framework for Explainable AI
- arxiv url: http://arxiv.org/abs/2105.06677v1
- Date: Fri, 14 May 2021 07:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 21:29:58.223048
- Title: XAI Handbook: Towards a Unified Framework for Explainable AI
- Title(参考訳): XAIハンドブック - 説明可能なAIのための統一フレームワークを目指す
- Authors: Sebastian Palacio, Adriano Lucieri, Mohsin Munir, J\"orn Hees, Sheraz
Ahmed, Andreas Dengel
- Abstract要約: 説明可能なAI(XAI)の分野は急速に繁栄し、多産なコミュニティになっている。
それぞれの新しい貢献は、それぞれ独自の(そしてしばしば直感的な)「説明」や「解釈」といった用語に依存するように見える。
我々は,これらの用語の具体的定義を提供するだけでなく,説明や解釈に必要なすべてのステップを概説する理論的枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.716475756970092
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The field of explainable AI (XAI) has quickly become a thriving and prolific
community. However, a silent, recurrent and acknowledged issue in this area is
the lack of consensus regarding its terminology. In particular, each new
contribution seems to rely on its own (and often intuitive) version of terms
like "explanation" and "interpretation". Such disarray encumbers the
consolidation of advances in the field towards the fulfillment of scientific
and regulatory demands e.g., when comparing methods or establishing their
compliance with respect to biases and fairness constraints. We propose a
theoretical framework that not only provides concrete definitions for these
terms, but it also outlines all steps necessary to produce explanations and
interpretations. The framework also allows for existing contributions to be
re-contextualized such that their scope can be measured, thus making them
comparable to other methods. We show that this framework is compliant with
desiderata on explanations, on interpretability and on evaluation metrics. We
present a use-case showing how the framework can be used to compare LIME, SHAP
and MDNet, establishing their advantages and shortcomings. Finally, we discuss
relevant trends in XAI as well as recommendations for future work, all from the
standpoint of our framework.
- Abstract(参考訳): 説明可能なAI(XAI)の分野は急速に繁栄し、多産なコミュニティになっている。
しかしながら、この分野における静かで再帰的で認識されている問題は、その用語に関する合意の欠如である。
特に、それぞれの新しい貢献は「説明」や「解釈」といった用語の独自の(そしてしばしば直感的な)バージョンに依存しているようである。
このような不一致は、例えば、方法の比較やバイアスや公正性の制約に対するコンプライアンスの確立など、科学的および規制的な要求を満たすための分野における進歩の強化を妨げている。
我々は,これらの用語の具体的定義を提供するだけでなく,説明や解釈に必要なすべてのステップを概説する理論的枠組みを提案する。
フレームワークはまた、既存のコントリビューションをスコープを計測できるように再コンテキスト化して、他のメソッドと同等にすることができる。
本フレームワークは,説明,解釈可能性,評価指標について,Desiderataに適合していることを示す。
本稿では,lime,shap,mdnetを比較し,その利点と欠点を確立するためにフレームワークをどのように利用するかを示すユースケースを提案する。
最後に,xaiの関連動向と今後の取り組みの提言について,フレームワークの立場から議論する。
関連論文リスト
- Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Goodhart's Law Applies to NLP's Explanation Benchmarks [57.26445915212884]
ERASER(Comprehensiveness and sufficiency)メトリクスとEVAL-X(EVAL-X)メトリクスの2つのセットを批判的に検討する。
実験結果の予測や説明を変えることなく,モデル全体の包括性と充足率を劇的に向上させることができることを示す。
我々の結果は、現在のメトリクスが説明可能性の研究をガイドする能力に疑問を呈し、これらのメトリクスが正確に捉えるものを再評価する必要性を強調します。
論文 参考訳(メタデータ) (2023-08-28T03:03:03Z) - Categorical Foundations of Explainable AI: A Unifying Theory [8.637435154170916]
本稿では、カテゴリー理論の十分に資金提供された形式主義を用いて、鍵となるXAI概念とプロセスの数学的に厳密な定義を初めて提示する。
i)既存の学習スキームとアーキテクチャをモデル化し、(ii)正式に「説明」という用語を定義し、(iii)XAIの理論的基盤を確立し、(iv)メソッドの説明の一般的に見落とされた側面を分析する。
論文 参考訳(メタデータ) (2023-04-27T11:10:16Z) - Charting the Sociotechnical Gap in Explainable AI: A Framework to
Address the Gap in XAI [29.33534897830558]
このギャップをグラフ化することで問題理解が向上し、説明可能性を改善するための実用的な洞察を反射的に提供できる、と我々は主張する。
我々は、社会技術的ギャップの体系的なチャート作成を容易にする枠組みを経験的に導き出した。
XAIの社会技術的ギャップを理解するための概念的かつ実践的な貢献により、このフレームワークはXAIデザイン空間を拡張している。
論文 参考訳(メタデータ) (2023-02-01T23:21:45Z) - Explainable Artificial Intelligence in Construction: The Content,
Context, Process, Outcome Evaluation Framework [1.3375143521862154]
我々は、XAIの採用と効果的な管理を正当化するために使用できるコンテンツ、コンテキスト、プロセス、成果評価フレームワークを開発する。
我々の新しいフレームワークは概念的だが、建設組織がXAIのビジネス価値と利益の実現に向けて進むための参考枠を提供する。
論文 参考訳(メタデータ) (2022-11-12T03:50:14Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Towards Unification of Discourse Annotation Frameworks [0.0]
我々は,異なるフレームワーク間の系統的関係を調査し,フレームワークを統一する手法を考案する。
フレームワーク統合の問題は長い間議論の的だったが、現時点では包括的なアプローチはない。
我々は、統合タスクに自動手段を使用し、構造的な複雑さと下流タスクで結果を評価する計画である。
論文 参考訳(メタデータ) (2022-04-16T11:34:00Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Metrics and continuity in reinforcement learning [34.10996560464196]
メトリクスのレンズを通してトポロジを定義するために統一的な定式化を導入する。
我々はこれらの指標の階層を確立し、マルコフ決定過程にその理論的意味を実証する。
考察した指標間の差異を示す実証的な評価で理論結果を補完する。
論文 参考訳(メタデータ) (2021-02-02T14:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。