論文の概要: Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation
- arxiv url: http://arxiv.org/abs/2101.06930v1
- Date: Mon, 18 Jan 2021 08:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 15:07:10.945176
- Title: Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation
- Title(参考訳): 属性インフォームド摂動によるニューラルネットワーク生成
- Authors: Fan Yang, Ninghao Liu, Mengnan Du, Xia Hu
- Abstract要約: AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
- 参考スコア(独自算出の注目度): 51.29486247405601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the wide use of deep neural networks (DNN), model interpretability has
become a critical concern, since explainable decisions are preferred in
high-stake scenarios. Current interpretation techniques mainly focus on the
feature attribution perspective, which are limited in indicating why and how
particular explanations are related to the prediction. To this end, an
intriguing class of explanations, named counterfactuals, has been developed to
further explore the "what-if" circumstances for interpretation, and enables the
reasoning capability on black-box models. However, generating counterfactuals
for raw data instances (i.e., text and image) is still in the early stage due
to its challenges on high data dimensionality and unsemantic raw features. In
this paper, we design a framework to generate counterfactuals specifically for
raw data instances with the proposed Attribute-Informed Perturbation (AIP). By
utilizing generative models conditioned with different attributes,
counterfactuals with desired labels can be obtained effectively and
efficiently. Instead of directly modifying instances in the data space, we
iteratively optimize the constructed attribute-informed latent space, where
features are more robust and semantic. Experimental results on real-world texts
and images demonstrate the effectiveness, sample quality as well as efficiency
of our designed framework, and show the superiority over other alternatives.
Besides, we also introduce some practical applications based on our framework,
indicating its potential beyond the model interpretability aspect.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)の広範な利用により、高リスクシナリオでは説明可能な決定が望ましいため、モデル解釈性が重要な関心事となっている。
現在の解釈技術は機能帰属の観点から主に焦点を当てており、特定の説明が予測とどのように関連しているかを示すのに制限がある。
この目的のために、ファクトファクト(反事実)と呼ばれる興味深い説明のクラスが開発され、解釈のための「何」の状況をさらに探求し、ブラックボックスモデルにおける推論能力を実現する。
しかし, 生データインスタンス(テキストや画像など)に対する偽造物の生成は, 高いデータ次元と非意味な生の特徴に課題があるため, まだ初期段階にある。
本稿では,提案するAttribute-Informed Perturbation (AIP)を用いて,生データインスタンスに特化して偽物を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
データ空間のインスタンスを直接変更するのではなく、属性に変換された潜在空間を反復的に最適化します。
実世界のテキストや画像に対する実験結果から, 提案したフレームワークの有効性, サンプル品質, および有効性を示し, その他の選択肢よりも優れていることを示す。
さらに,本フレームワークに基づく実用的応用例も紹介し,モデルの解釈可能性を超えた可能性を示した。
- 全文 参考訳へのリンク
関連論文リスト
- Preference Enhanced Social Influence Modeling for Network-Aware Cascade
Prediction [59.221668173521884]
本稿では,ユーザの嗜好モデルを強化することで,カスケードサイズ予測を促進する新しいフレームワークを提案する。
エンド・ツー・エンドの手法により,ユーザの情報拡散プロセスがより適応的で正確になる。
論文 参考訳(メタデータ) (2022-04-18T09:25:06Z) - Explainable Artificial Intelligence in Process Mining: Assessing the
Explainability-Performance Trade-Off in Outcome-Oriented Predictive Process
Monitoring [77.34726150561087]
本稿では,説明可能性の解釈可能性と説明可能性モデルの忠実さについて述べる。
導入されたプロパティは、プロセスベースの分析の典型的なイベント、ケース、制御フローの観点に沿って分析されます。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - Attentional Prototype Inference for Few-Shot Semantic Segmentation [114.74344993331196]
数ショットセマンティックセグメンテーションのための確率的潜時変数フレームワークである注目プロトタイプ推論(API)を提案する。
我々は各オブジェクトカテゴリのプロトタイプを表現するためにグローバル潜在変数を定義し、確率分布としてモデル化する。
我々は3つのベンチマークについて広範な実験を行い,提案手法は最先端手法よりも,少なくとも競争性が高く,しばしば優れた性能を得る。
論文 参考訳(メタデータ) (2021-05-14T06:58:44Z) - A Novel Interaction-based Methodology Towards Explainable AI with Better
Understanding of Pneumonia Chest X-ray Images [0.0]
本稿では,画像中の雑音および非情報的変数をスクリーニングするための相互作用に基づく手法であるI-Score(I-Score)を提案する。
提案手法をPneumonia Chest X-ray Imageデータセットに実世界の応用に適用し,その成果を報告する。
論文 参考訳(メタデータ) (2021-04-19T23:02:43Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Learning Consistent Deep Generative Models from Sparse Data via
Prediction Constraints [16.48824312904122]
我々は変分オートエンコーダやその他の深層生成モデルを学ぶための新しいフレームワークを開発する。
これら2つのコントリビューション -- 予測制約と一貫性制約 -- が,画像分類性能の有望な向上につながることを示す。
論文 参考訳(メタデータ) (2020-12-12T04:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。