論文の概要: Going Beyond XAI: A Systematic Survey for Explanation-Guided Learning
- arxiv url: http://arxiv.org/abs/2212.03954v1
- Date: Wed, 7 Dec 2022 20:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:31:05.420124
- Title: Going Beyond XAI: A Systematic Survey for Explanation-Guided Learning
- Title(参考訳): XAIを超える: 説明指導型学習の体系的調査
- Authors: Yuyang Gao, Siyi Gu, Junji Jiang, Sungsoo Ray Hong, Dazhou Yu, Liang
Zhao
- Abstract要約: 説明可能な人工知能(XAI)の技術は大きな注目を集めており、機械学習(ML)エンジニアがAIモデルを理解するのに大いに役立っている。
本稿は、説明指導学習(EGL)分野のタイムリーで広範な文献概要を提供する。
EGLは、モデル説明に正規化、監督、介入を追加することで、DNNの推論プロセスを制御するテクニックのドメインである。
- 参考スコア(独自算出の注目度): 8.835733039270364
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the societal impact of Deep Neural Networks (DNNs) grows, the goals for
advancing DNNs become more complex and diverse, ranging from improving a
conventional model accuracy metric to infusing advanced human virtues such as
fairness, accountability, transparency (FaccT), and unbiasedness. Recently,
techniques in Explainable Artificial Intelligence (XAI) are attracting
considerable attention, and have tremendously helped Machine Learning (ML)
engineers in understanding AI models. However, at the same time, we started to
witness the emerging need beyond XAI among AI communities; based on the
insights learned from XAI, how can we better empower ML engineers in steering
their DNNs so that the model's reasonableness and performance can be improved
as intended? This article provides a timely and extensive literature overview
of the field Explanation-Guided Learning (EGL), a domain of techniques that
steer the DNNs' reasoning process by adding regularization, supervision, or
intervention on model explanations. In doing so, we first provide a formal
definition of EGL and its general learning paradigm. Secondly, an overview of
the key factors for EGL evaluation, as well as summarization and categorization
of existing evaluation procedures and metrics for EGL are provided. Finally,
the current and potential future application areas and directions of EGL are
discussed, and an extensive experimental study is presented aiming at providing
comprehensive comparative studies among existing EGL models in various popular
application domains, such as Computer Vision (CV) and Natural Language
Processing (NLP) domains.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の社会的影響が増大するにつれて、従来のモデルの精度基準の改善から、公正性、説明責任、透明性(FaccT)、不偏性といった高度な人間の美徳の注入まで、DNNを進めるための目標はより複雑で多様になる。
近年、説明可能な人工知能(XAI)の技術が注目されており、機械学習(ML)エンジニアがAIモデルを理解するのに大いに役立っている。
しかし、同時に、AIコミュニティにおけるXAI以外のニーズの出現を目の当たりにし始めた。XAIから学んだ知見に基づいて、モデルの合理的さとパフォーマンスを意図通りに改善できるように、DNNを運営するMLエンジニアにどのように権限を与えることができるのか?
本稿は、DNNの推論プロセスに正規化、監督、モデル説明への介入を加えることによって、DNNの推論プロセスを支援する手法の分野である説明指導学習(EGL)について、タイムリーかつ広範な文献概要を提供する。
そこで我々はまず,EGLとその一般学習パラダイムを形式的に定義する。
次に、egl評価の重要な要因の概要と、既存の評価手順とeglのためのメトリクスの要約と分類について述べる。
最後に、eglの現在および将来の応用分野と方向性について論じ、コンピュータビジョン(cv)や自然言語処理(nlp)ドメインなど、様々な一般的なアプリケーションドメインにおける既存のeglモデル間の包括的比較研究を目的とする広範な実験研究を行った。
関連論文リスト
- Enhancing Court View Generation with Knowledge Injection and Guidance [43.32071790286732]
裁判所ビュー生成(CVG)は、原告の主張と事実記述に基づいて裁判所ビューを生成することを目的としている。
PLMは自然言語生成の進歩を誇示しているが、CVGの複雑で知識集約的な領域への応用は、しばしば固有の制限を明らかにしている。
PLMを用いてCVGを活性化させる新しい手法であるKnowledge Injection and Guidance(KIG)を提案する。
訓練段階において,ドメイン知識を効率的に組み込むため,即時チューニングのための知識注入プロンプトエンコーダを導入し,計算オーバーヘッドを低減した。
論文 参考訳(メタデータ) (2024-03-07T09:51:11Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - On the Generalization Capability of Temporal Graph Learning Algorithms:
Theoretical Insights and a Simpler Method [59.52204415829695]
テンポラルグラフ学習(TGL)は、様々な現実世界のアプリケーションにまたがる一般的なテクニックとなっている。
本稿では,異なるTGLアルゴリズムの一般化能力について検討する。
一般化誤差が小さく、全体的な性能が向上し、モデルの複雑さが低下する単純化されたTGLネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-26T08:22:22Z) - Towards Efficient Generative Large Language Model Serving: A Survey from
Algorithms to Systems [14.355768064425598]
生成型大規模言語モデル(LLM)が最前線に立ち、データとのインタラクション方法に革命をもたらします。
しかし、これらのモデルをデプロイする際の計算強度とメモリ消費は、効率性の観点から大きな課題を呈している。
本研究は,機械学習システム(MLSys)研究の観点から,効率的なLCM提供手法の必要性について考察する。
論文 参考訳(メタデータ) (2023-12-23T11:57:53Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Deep Learning Reproducibility and Explainable AI (XAI) [9.13755431537592]
ディープラーニング(DL)学習アルゴリズムの非決定性とそのニューラルネットワーク(NN)モデルの説明可能性への影響について検討した。
この問題について議論するため、2つの畳み込みニューラルネットワーク(CNN)をトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2022-02-23T12:06:20Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。