論文の概要: Learning by Self-Explaining
- arxiv url: http://arxiv.org/abs/2309.08395v1
- Date: Fri, 15 Sep 2023 13:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:30:40.762728
- Title: Learning by Self-Explaining
- Title(参考訳): 自己説明による学習
- Authors: Wolfgang Stammer, Felix Friedrich, David Steinmann, Hikaru Shindo and
Kristian Kersting
- Abstract要約: 自己説明型学習(LSX)と呼ばれる新しい学習パラダイムを導入する。
基本的な考え方は、学習モジュール(初心者)がベースタスクを実行し、その決定を説明することである。
自己説明による学習は,AIモデルの一般化能力を高めることを示す。
- 参考スコア(独自算出の注目度): 25.474770908683183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) research has a long track record of drawing
inspirations from findings from biology, in particular human intelligence. In
contrast to current AI research that mainly treats explanations as a means for
model inspection, a somewhat neglected finding from human psychology is the
benefit of self-explaining in an agents' learning process. Motivated by this,
we introduce a novel learning paradigm, termed Learning by Self-Explaining
(LSX). The underlying idea is that a learning module (learner) performs a base
task, e.g. image classification, and provides explanations to its decisions. An
internal critic module next evaluates the quality of these explanations given
the original task. Finally, the learner is refined with the critic's feedback
and the loop is repeated as required. The intuition behind this is that an
explanation is considered "good" if the critic can perform the same task given
the respective explanation. Despite many implementation possibilities the
structure of any LSX instantiation can be taxonomized based on four learning
modules which we identify as: Fit, Explain, Reflect and Revise. In our work, we
provide distinct instantiations of LSX for two different learner models, each
illustrating different choices for the various LSX components. We broadly
evaluate these on several datasets and show that Learning by Self-Explaining
not only boosts the generalization abilities of AI models, particularly in
small-data regimes, but also aids in mitigating the influence of confounding
factors, as well as leading to more task specific and faithful model
explanations. Overall, our results provide experimental evidence of the
potential of self-explaining within the learning phase of an AI model.
- Abstract(参考訳): 人工知能(AI)の研究は、生物学、特に人間の知性の発見からインスピレーションを得た長い記録を持っている。
モデル検査の手段として説明を主に扱う現在のAI研究とは対照的に、人間の心理学から多少無視された発見は、エージェントの学習プロセスにおける自己説明の恩恵である。
そこで我々は,LSX(Learning by Self-Explaining)と呼ばれる新しい学習パラダイムを導入する。
基礎となる考え方は、学習モジュール(リアナー)が、例えば画像分類などのベースタスクを実行し、その決定に関する説明を提供することである。
次に、内部批判モジュールは、元のタスクが与えられたこれらの説明の質を評価する。
最後に、批評家のフィードバックで学習者を洗練し、必要に応じてループを繰り返す。
この背景にある直感は、批評家がそれぞれの説明から同じタスクを実行できる場合、説明が「良い」と考えられることである。
多くの実装可能性にもかかわらず、LSXインスタンスの構造は、Fit, Explain, Reflect, Reviseという4つの学習モジュールに基づいて分類できる。
本研究では,2つの学習者モデルに対してLSXの異なるインスタンス化を提供し,それぞれが様々なLSXコンポーネントの異なる選択を図示する。
我々はこれらをいくつかのデータセットで広く評価し、特に小規模データ体制におけるAIモデルの一般化能力を高めるだけでなく、共起要因の影響を緩和し、タスク固有で忠実なモデル説明をもたらすことを示します。
その結果,AIモデルの学習段階における自己説明の可能性について実験的に検証した。
関連論文リスト
- CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Post Hoc Explanations of Language Models Can Improve Language Models [43.2109029463221]
AMPLIFY(Post Hoc Explanations)を用いたインコンテキスト学習の活用によるモデル性能向上のための新しいフレームワークを提案する。
我々は,各入力特徴がモデル予測に与える影響を抽出し,帰属スコア(説明)を出力するポストホック説明手法を活用する。
AMPLIFYは,幅広いタスクに対して約10~25%の精度向上を実現している。
論文 参考訳(メタデータ) (2023-05-19T04:46:04Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - The Grammar of Interactive Explanatory Model Analysis [7.812073412066698]
本稿では,異なる説明モデル解析(EMA)手法が相互にどのように補完するかを示す。
我々はIEMAの文法を形式化し、潜在的な人間モデル対話を記述する。
IEMAは、広く使われている人中心のオープンソースソフトウェアフレームワークで実装されている。
論文 参考訳(メタデータ) (2020-05-01T17:12:22Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。