論文の概要: Understanding Instance-based Interpretability of Variational
Auto-Encoders
- arxiv url: http://arxiv.org/abs/2105.14203v1
- Date: Sat, 29 May 2021 04:03:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:41:13.900822
- Title: Understanding Instance-based Interpretability of Variational
Auto-Encoders
- Title(参考訳): 変分オートエンコーダのインスタンスベース解釈可能性の理解
- Authors: Zhifeng Kong, Kamalika Chaudhuri
- Abstract要約: 可変オートエンコーダ(VAE)と呼ばれる深層生成モデルの影響関数について検討する。
次に、Pruthiなどに基づく計算効率が高く理論的に健全な解であるVAE-TracInを紹介する。
VAE-TracInを、広範囲な量的および定性的な分析により、複数の実世界のデータセット上で評価する。
- 参考スコア(独自算出の注目度): 24.493721984271566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance-based interpretation methods have been widely studied for supervised
learning methods as they help explain how black box neural networks predict.
However, instance-based interpretations remain ill-understood in the context of
unsupervised learning. In this paper, we investigate influence functions [20],
a popular instance-based interpretation method, for a class of deep generative
models called variational auto-encoders (VAE). We formally frame the
counter-factual question answered by influence functions in this setting, and
through theoretical analysis, examine what they reveal about the impact of
training samples on classical unsupervised learning methods. We then introduce
VAE-TracIn, a computationally efficient and theoretically sound solution based
on Pruthi et al. [28], for VAEs. Finally, we evaluate VAE-TracIn on several
real world datasets with extensive quantitative and qualitative analysis.
- Abstract(参考訳): ブラックボックスニューラルネットワークの予測方法を説明する上で,教師あり学習手法として,インスタンスベースの解釈手法が広く研究されている。
しかし、インスタンスベースの解釈は教師なし学習の文脈では未理解のままである。
本稿では,変分自動エンコーダ(VAE)と呼ばれる深部生成モデルに対して,一般的なインスタンスベースの解釈手法である影響関数[20]について検討する。
本研究では,この環境における影響関数に応答する対実的質問を形式的に定式化し,理論解析を通じて,従来の教師なし学習方法に対するトレーニングサンプルの影響を明らかにする。
次に、Pruthiなどに基づく計算効率が高く理論的に健全な解であるVAE-TracInを紹介する。
[28]vaes用。
最後に,vae-トラシンを数種類の実世界データセット上で定量的・質的分析により評価する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - Exploring Adversarial Examples for Efficient Active Learning in Machine
Learning Classifiers [17.90617023533039]
まず、敵攻撃法を用いて、元の訓練例に特定の摂動を加える。
次に、アクティブラーニングとこれらの特定のトレーニング例との関係について検討する。
その結果, 理論基盤の確立は, 敵の事例に基づいて, より良いアクティブな学習戦略を導いてくれることが示唆された。
論文 参考訳(メタデータ) (2021-09-22T14:51:26Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Efficient Estimation of Influence of a Training Instance [56.29080605123304]
本稿では,ニューラルネットワークモデルに対するトレーニングインスタンスの影響を効率的に推定する手法を提案する。
このメソッドは、サブネットワークをゼロマスクし、サブネットワークが各トレーニングインスタンスを学習するのを防ぎます。
提案手法は, 学習の影響を捉え, 誤り予測の解釈性を高め, 一般化改善のための訓練データセットをクリーン化できることを実証する。
論文 参考訳(メタデータ) (2020-12-08T04:31:38Z) - Understanding Interpretability by generalized distillation in Supervised
Classification [3.5473853445215897]
最近の解釈戦略は、複雑な機械学習モデルの根底にある決定メカニズムの人間の理解に焦点を当てている。
本稿では,他のMLモデルと相対的に定義される解釈・蒸留式を提案する。
MNIST、Fashion-MNIST、Stanford40データセットに関する提案フレームワークの評価を行った。
論文 参考訳(メタデータ) (2020-12-05T17:42:50Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。