論文の概要: Interpretability is not Explainability: New Quantitative XAI Approach
with a focus on Recommender Systems in Education
- arxiv url: http://arxiv.org/abs/2311.02078v1
- Date: Mon, 18 Sep 2023 11:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 16:45:44.268865
- Title: Interpretability is not Explainability: New Quantitative XAI Approach
with a focus on Recommender Systems in Education
- Title(参考訳): 解釈は説明できない:教育におけるレコメンダシステムに着目した新しい定量的xaiアプローチ
- Authors: Riccardo Porcedda
- Abstract要約: 我々は,XAIにおける重要な概念と関係の明確かつ曖昧な理解を提供する新しい分類法を提案する。
私たちのアプローチは、既存の定義やフレームワークの体系的な分析に根ざしています。
この包括的分類学は、将来の研究のための共通語彙を確立することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of eXplainable Artificial Intelligence faces challenges due to the
absence of a widely accepted taxonomy that facilitates the quantitative
evaluation of explainability in Machine Learning algorithms. In this paper, we
propose a novel taxonomy that addresses the current gap in the literature by
providing a clear and unambiguous understanding of the key concepts and
relationships in XAI. Our approach is rooted in a systematic analysis of
existing definitions and frameworks, with a focus on transparency,
interpretability, completeness, complexity and understandability as essential
dimensions of explainability. This comprehensive taxonomy aims to establish a
shared vocabulary for future research. To demonstrate the utility of our
proposed taxonomy, we examine a case study of a Recommender System designed to
curate and recommend the most suitable online resources from MERLOT. By
employing the SHAP package, we quantify and enhance the explainability of the
RS within the context of our newly developed taxonomy.
- Abstract(参考訳): eXplainable Artificial Intelligenceの分野は、機械学習アルゴリズムにおける説明可能性の定量的評価を容易にする広く受け入れられている分類法がないため、課題に直面している。
本稿では,xaiにおける重要な概念と関係を明確かつあいまいに理解することにより,文献の現在のギャップに対処できる新しい分類法を提案する。
我々のアプローチは、透明性、解釈可能性、完全性、複雑さ、説明可能性の本質的な次元としての理解可能性に焦点を当てた、既存の定義とフレームワークの体系的な分析に根ざしています。
この包括的分類学は、将来の研究のための共有語彙を確立することを目的としている。
提案する分類学の有用性を実証するために,MERLOTから最も適したオンラインリソースをキュレートし,推奨するRecommender Systemのケーススタディを検討した。
SHAPパッケージを用いて,新たに開発した分類学の文脈において,RSの定量化と説明可能性の向上を図る。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - SCENE: Evaluating Explainable AI Techniques Using Soft Counterfactuals [0.0]
本稿では,新たな評価手法であるSCENE(Soft Counterfactual Evaluation for Natural Language Explainability)を紹介する。
トークンベースの置換に焦点を当てることで、SCENEは文脈的に適切で意味論的に意味のあるソフトカウンタブルを作成する。
SCENEは様々なXAI技法の強みと限界についての貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-08-08T16:36:24Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Concept-based Explainable Artificial Intelligence: A Survey [16.580100294489508]
生の機能を説明に利用することは、近年、いくつかの作品で議論されている。
統一された分類と正確なフィールド定義はいまだに欠けている。
本稿では,C-XAIのアプローチを徹底的にレビューすることで,そのギャップを埋める。
論文 参考訳(メタデータ) (2023-12-20T11:27:21Z) - AS-XAI: Self-supervised Automatic Semantic Interpretation for CNN [5.42467030980398]
本稿では,自動意味解釈人工知能(AS-XAI)フレームワークを提案する。
モデル決定のグローバルな意味解釈には、透過的な埋め込み意味抽出空間と行中心主成分分析(PCA)を用いる。
提案手法は, 流通圏内における共通意味論的解釈を含む, 広範囲な実践的応用を提供する。
論文 参考訳(メタデータ) (2023-12-02T10:06:54Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Towards the Linear Algebra Based Taxonomy of XAI Explanations [0.0]
説明可能な人工知能(XAI)の手法は、なぜ特定の予測や推定が行われたのかという疑問に答えるために開発された。
文学におけるXAIの提案は、主に人間エージェントの関与に関する説明の区別に焦点を絞ったものである。
本稿では,局所的な説明のための単純線形代数に基づく分類法を提案する。
論文 参考訳(メタデータ) (2023-01-30T18:21:27Z) - Integrating Prior Knowledge in Post-hoc Explanations [3.6066164404432883]
ポストホック解釈可能性法は、訓練された決定モデルの予測をユーザーに説明することを目的としている。
本稿では,事前知識を解釈可能性の目標に明示的に統合するコスト関数を提案する。
本稿では,KICE(Knowledge Integration in Counterfactual Explanation)と呼ばれる新しい解釈可能性手法を提案する。
論文 参考訳(メタデータ) (2022-04-25T13:09:53Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。