論文の概要: Streamlining models with explanations in the learning loop
- arxiv url: http://arxiv.org/abs/2302.07760v1
- Date: Wed, 15 Feb 2023 16:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 14:30:58.858610
- Title: Streamlining models with explanations in the learning loop
- Title(参考訳): 学習ループにおける説明付きモデルの合理化
- Authors: Francesco Lomuscio, Paolo Bajardi, Alan Perotti, and Elvio G. Amparore
- Abstract要約: いくつかの説明可能なAIメソッドにより、機械学習ユーザーはブラックボックスモデルの分類プロセスに関する洞察を得ることができる。
この情報を利用して機能エンジニアリングフェーズを設計し、説明と機能バリューを組み合わせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Several explainable AI methods allow a Machine Learning user to get insights
on the classification process of a black-box model in the form of local linear
explanations. With such information, the user can judge which features are
locally relevant for the classification outcome, and get an understanding of
how the model reasons. Standard supervised learning processes are purely driven
by the original features and target labels, without any feedback loop informed
by the local relevance of the features identified by the post-hoc explanations.
In this paper, we exploit this newly obtained information to design a feature
engineering phase, where we combine explanations with feature values. To do so,
we develop two different strategies, named Iterative Dataset Weighting and
Targeted Replacement Values, which generate streamlined models that better
mimic the explanation process presented to the user. We show how these
streamlined models compare to the original black-box classifiers, in terms of
accuracy and compactness of the newly produced explanations.
- Abstract(参考訳): いくつかの説明可能なai手法により、機械学習のユーザはローカルな線形説明の形でブラックボックスモデルの分類プロセスについて洞察を得ることができる。
このような情報により、ユーザーは、どの特徴が分類結果に局所的に関連しているかを判断し、モデルがどのように原因であるかを理解することができる。
標準教師付き学習プロセスは、オリジナルの特徴とターゲットラベルによって純粋に駆動され、ポストホックな説明によって識別された特徴の局所的関連性によってフィードバックループが通知されることはない。
本稿では,新たに得られた情報を利用して,説明と特徴値を組み合わせた特徴工学フェーズをデザインする。
これを実現するために,反復データセット重み付けとターゲット代替値という2つの異なる戦略を開発し,ユーザが提示する説明プロセスをよりよく模倣した,合理化されたモデルを生成する。
これらの合理化モデルは、新たに作成された説明の精度とコンパクト性の観点から、元のブラックボックス分類器と比較する。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Interpretable Network Visualizations: A Human-in-the-Loop Approach for Post-hoc Explainability of CNN-based Image Classification [5.087579454836169]
State-of-the-art explainability Method は、特定のクラスが特定された場所を示すために、サリエンシマップを生成する。
本稿では,畳み込みニューラルネットワークの機能抽出プロセス全体を説明するポストホック手法を提案する。
また,複数の画像にラベルを集約することで,グローバルな説明を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T09:21:35Z) - Viewing the process of generating counterfactuals as a source of knowledge: a new approach for explaining classifiers [0.0]
本稿では,このシミュレーションプロセスを,使用可能な知識を,後に異なる方法で生成するための情報源として捉えることを提案する。
論文 参考訳(メタデータ) (2023-09-08T12:06:48Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - CLIMAX: An exploration of Classifier-Based Contrastive Explanations [5.381004207943597]
我々は,ブラックボックスの分類を正当化する対照的な説明を提供する,ポストホックモデルXAI手法を提案する。
CLIMAXと呼ばれる手法は,局所的な分類法に基づく。
LIME, BayLIME, SLIMEなどのベースラインと比較して, 一貫性が向上することを示す。
論文 参考訳(メタデータ) (2023-07-02T22:52:58Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Supervised Feature Compression based on Counterfactual Analysis [3.2458225810390284]
本研究は,事前学習したブラックボックスモデルの重要な決定境界を検出するために,非現実的説明を活用することを目的としている。
離散化されたデータセットを使用して、ブラックボックスモデルに似た最適な決定木をトレーニングすることができるが、解釈可能でコンパクトである。
論文 参考訳(メタデータ) (2022-11-17T21:16:14Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。