論文の概要: A Survey of Explainable Knowledge Tracing
- arxiv url: http://arxiv.org/abs/2403.07279v1
- Date: Tue, 12 Mar 2024 03:17:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 23:03:31.197073
- Title: A Survey of Explainable Knowledge Tracing
- Title(参考訳): 説明可能な知識の追跡に関する調査
- Authors: Yanhong Bai, Jiabao Zhao, Tingjiang Wei, Qing Cai, Liang He
- Abstract要約: 本稿では,KTアルゴリズムの解釈可能性について詳細に解析する。
説明可能な知識追跡のための現在の評価方法が不足している。
本稿では,教育関係者の視点から評価手法について考察する。
- 参考スコア(独自算出の注目度): 14.472784840283099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the long term accumulation of high quality educational data, artificial
intelligence has shown excellent performance in knowledge tracing. However, due
to the lack of interpretability and transparency of some algorithms, this
approach will result in reduced stakeholder trust and a decreased acceptance of
intelligent decisions. Therefore, algorithms need to achieve high accuracy, and
users need to understand the internal operating mechanism and provide reliable
explanations for decisions. This paper thoroughly analyzes the interpretability
of KT algorithms. First, the concepts and common methods of explainable
artificial intelligence and knowledge tracing are introduced. Next, explainable
knowledge tracing models are classified into two categories: transparent models
and black box models. Then, the interpretable methods used are reviewed from
three stages: ante hoc interpretable methods, post hoc interpretable methods,
and other dimensions. It is worth noting that current evaluation methods for
explainable knowledge tracing are lacking. Hence, contrast and deletion
experiments are conducted to explain the prediction results of the deep
knowledge tracing model on the ASSISTment2009 by using three XAI methods.
Moreover, this paper offers some insights into evaluation methods from the
perspective of educational stakeholders. This paper provides a detailed and
comprehensive review of the research on explainable knowledge tracing, aiming
to offer some basis and inspiration for researchers interested in the
interpretability of knowledge tracing.
- Abstract(参考訳): 高品質な教育データの長期蓄積により、人工知能は知識追跡において優れた性能を示した。
しかし、いくつかのアルゴリズムの解釈可能性や透明性の欠如により、このアプローチは株主信頼の低下と知的決定の受け入れの低下をもたらす。
したがって、アルゴリズムは高い精度を達成する必要があり、ユーザーは内部動作機構を理解し、決定に信頼できる説明を提供する必要がある。
本稿では,KTアルゴリズムの解釈可能性について詳細に解析する。
まず、説明可能な人工知能と知識追跡の概念と一般的な方法を紹介する。
次に、説明可能な知識追跡モデルは、透明モデルとブラックボックスモデルという2つのカテゴリに分類される。
次に, アンテホック解釈法, ポストホック解釈法, その他の次元の3段階から解析方法について検討する。
説明可能な知識トレースのための現在の評価方法が不足していることに注意が必要だ。
そこで, 3つのXAI手法を用いて, ASSISTment 2009における深部知識追跡モデルの予測結果を説明するために, コントラストと削除実験を行った。
さらに,本論文では,教育関係者の視点から評価手法について考察する。
本稿では,知識トレースの解釈可能性に関心を持つ研究者に基礎とインスピレーションを提供することを目的とした,説明可能な知識トレース研究の詳細な総括的レビューを行う。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Evaluation Metrics for Symbolic Knowledge Extracted from Machine
Learning Black Boxes: A Discussion Paper [0.0]
抽出した知識の可読性のレベルを定量的に評価する方法はまだ未解決の問題である。
そのような計量を見つけることが、例えば、異なる知識表現の集合間の自動比較を可能にする鍵となる。
論文 参考訳(メタデータ) (2022-11-01T03:04:25Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Developing a Fidelity Evaluation Approach for Interpretable Machine
Learning [2.2448567386846916]
複雑なモデルの解釈性を改善するために、説明可能なAI(XAI)メソッドが使用される。
特に、ブラックボックスの説明の忠実さを評価するには、さらなる発展が必要である。
本評価は, 基礎となる予測モデルの内部メカニズム, 使用法の内部メカニズム, モデルおよびデータの複雑さが, すべて説明忠実性に影響を与えることを示唆している。
論文 参考訳(メタデータ) (2021-06-16T00:21:16Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Evaluating Explainable Artificial Intelligence Methods for Multi-label
Deep Learning Classification Tasks in Remote Sensing [0.0]
ベンチマークデータセットで最先端のパフォーマンスを持つディープラーニングモデルを開発した。
モデル予測の理解と解釈に10のXAI手法が用いられた。
Occlusion、Grad-CAM、Limeは、最も解釈可能で信頼性の高いXAIメソッドでした。
論文 参考訳(メタデータ) (2021-04-03T11:13:14Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - SIDU: Similarity Difference and Uniqueness Method for Explainable AI [21.94600656231124]
本稿では,深層学習ネットワークにおける新たな視覚的説明法について述べる。
提案手法は,有望な視覚的説明が有望であることを示す。
論文 参考訳(メタデータ) (2020-06-04T20:33:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。