論文の概要: Going Beyond XAI: A Systematic Survey for Explanation-Guided Learning
- arxiv url: http://arxiv.org/abs/2212.03954v1
- Date: Wed, 7 Dec 2022 20:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:31:05.420124
- Title: Going Beyond XAI: A Systematic Survey for Explanation-Guided Learning
- Title(参考訳): XAIを超える: 説明指導型学習の体系的調査
- Authors: Yuyang Gao, Siyi Gu, Junji Jiang, Sungsoo Ray Hong, Dazhou Yu, Liang
Zhao
- Abstract要約: 説明可能な人工知能(XAI)の技術は大きな注目を集めており、機械学習(ML)エンジニアがAIモデルを理解するのに大いに役立っている。
本稿は、説明指導学習(EGL)分野のタイムリーで広範な文献概要を提供する。
EGLは、モデル説明に正規化、監督、介入を追加することで、DNNの推論プロセスを制御するテクニックのドメインである。
- 参考スコア(独自算出の注目度): 8.835733039270364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the societal impact of Deep Neural Networks (DNNs) grows, the goals for
advancing DNNs become more complex and diverse, ranging from improving a
conventional model accuracy metric to infusing advanced human virtues such as
fairness, accountability, transparency (FaccT), and unbiasedness. Recently,
techniques in Explainable Artificial Intelligence (XAI) are attracting
considerable attention, and have tremendously helped Machine Learning (ML)
engineers in understanding AI models. However, at the same time, we started to
witness the emerging need beyond XAI among AI communities; based on the
insights learned from XAI, how can we better empower ML engineers in steering
their DNNs so that the model's reasonableness and performance can be improved
as intended? This article provides a timely and extensive literature overview
of the field Explanation-Guided Learning (EGL), a domain of techniques that
steer the DNNs' reasoning process by adding regularization, supervision, or
intervention on model explanations. In doing so, we first provide a formal
definition of EGL and its general learning paradigm. Secondly, an overview of
the key factors for EGL evaluation, as well as summarization and categorization
of existing evaluation procedures and metrics for EGL are provided. Finally,
the current and potential future application areas and directions of EGL are
discussed, and an extensive experimental study is presented aiming at providing
comprehensive comparative studies among existing EGL models in various popular
application domains, such as Computer Vision (CV) and Natural Language
Processing (NLP) domains.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の社会的影響が増大するにつれて、従来のモデルの精度基準の改善から、公正性、説明責任、透明性(FaccT)、不偏性といった高度な人間の美徳の注入まで、DNNを進めるための目標はより複雑で多様になる。
近年、説明可能な人工知能(XAI)の技術が注目されており、機械学習(ML)エンジニアがAIモデルを理解するのに大いに役立っている。
しかし、同時に、AIコミュニティにおけるXAI以外のニーズの出現を目の当たりにし始めた。XAIから学んだ知見に基づいて、モデルの合理的さとパフォーマンスを意図通りに改善できるように、DNNを運営するMLエンジニアにどのように権限を与えることができるのか?
本稿は、DNNの推論プロセスに正規化、監督、モデル説明への介入を加えることによって、DNNの推論プロセスを支援する手法の分野である説明指導学習(EGL)について、タイムリーかつ広範な文献概要を提供する。
そこで我々はまず,EGLとその一般学習パラダイムを形式的に定義する。
次に、egl評価の重要な要因の概要と、既存の評価手順とeglのためのメトリクスの要約と分類について述べる。
最後に、eglの現在および将来の応用分野と方向性について論じ、コンピュータビジョン(cv)や自然言語処理(nlp)ドメインなど、様々な一般的なアプリケーションドメインにおける既存のeglモデル間の包括的比較研究を目的とする広範な実験研究を行った。
関連論文リスト
- Cutting Through the Confusion and Hype: Understanding the True Potential of Generative AI [0.0]
本稿では,生成型AI(genAI)の微妙な景観について考察する。
それは、Large Language Models (LLMs)のようなニューラルネットワークベースのモデルに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-22T02:18:44Z) - Seeing Eye to AI: Human Alignment via Gaze-Based Response Rewards for Large Language Models [46.09562860220433]
暗黙のフィードバック(特に眼球追跡(ET)データ)をReward Model(RM)に統合する新しいフレームワークであるGazeRewardを紹介します。
提案手法は、確立された人間の嗜好データセット上でのRMの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T13:24:56Z) - XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。