論文の概要: Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization
- arxiv url: http://arxiv.org/abs/2205.10232v1
- Date: Fri, 20 May 2022 15:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 13:33:29.157179
- Title: Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization
- Title(参考訳): 多目的最適化による反事実的説明における可能性・変化強度・敵意のトレードオフの検討
- Authors: Javier Del Ser, Alejandro Barredo-Arrieta, Natalia D\'iaz-Rodr\'iguez,
Francisco Herrera, Andreas Holzinger
- Abstract要約: 自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 73.89239820192894
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a broad consensus on the importance of deep learning models in tasks
involving complex data. Often, an adequate understanding of these models is
required when focusing on the transparency of decisions in human-critical
applications. Besides other explainability techniques, trustworthiness can be
achieved by using counterfactuals, like the way a human becomes familiar with
an unknown process: by understanding the hypothetical circumstances under which
the output changes. In this work we argue that automated counterfactual
generation should regard several aspects of the produced adversarial instances,
not only their adversarial capability. To this end, we present a novel
framework for the generation of counterfactual examples which formulates its
goal as a multi-objective optimization problem balancing three different
objectives: 1) plausibility, i.e., the likeliness of the counterfactual of
being possible as per the distribution of the input data; 2) intensity of the
changes to the original input; and 3) adversarial power, namely, the
variability of the model's output induced by the counterfactual. The framework
departs from a target model to be audited and uses a Generative Adversarial
Network to model the distribution of input data, together with a
multi-objective solver for the discovery of counterfactuals balancing among
these objectives. The utility of the framework is showcased over six
classification tasks comprising image and three-dimensional data. The
experiments verify that the framework unveils counterfactuals that comply with
intuition, increasing the trustworthiness of the user, and leading to further
insights, such as the detection of bias and data misrepresentation.
- Abstract(参考訳): 複雑なデータを含むタスクにおけるディープラーニングモデルの重要性については、幅広いコンセンサスがある。
これらのモデルの適切な理解は、人間のクリティカルなアプリケーションにおける決定の透明性を重視する際に必要となる。
他の説明可能性のテクニックの他に、人間が未知のプロセスに慣れる方法のような反事実を用いることで、アウトプットが変化する仮説的状況を理解することで、信頼性を達成することができる。
本研究では, 自動対物生成は, 対物生成能力だけでなく, 生成した対物生成のいくつかの側面を考慮すべきである,と論じる。
そこで本稿では,3つの目的のバランスをとる多目的最適化問題として,その目標を定式化した反実例生成のための新しい枠組みを提案する。
1) 可能性,すなわち,入力データの分布に応じて可能となる反事実の類似性
2) 元の入力に対する変更の強度,及び
3) 敵対的な力、すなわち、反事実によって引き起こされるモデルの出力の変動性。
このフレームワークは、対象モデルから外れて監査され、ジェネレーティブ・アドバイサル・ネットワークを使用して入力データの分布をモデル化し、また、これらの目的の間に反現実的バランスの発見のための多目的解決器である。
フレームワークの有用性は、画像と3次元データを含む6つの分類タスクで示される。
実験は、このフレームワークが直感に従う反事実を明らかにし、ユーザの信頼性を高め、バイアスの検出やデータの誤表現といったさらなる洞察をもたらすことを検証した。
関連論文リスト
- A Review of Bayesian Uncertainty Quantification in Deep Probabilistic Image Segmentation [0.0]
画像セグメンテーションの進歩は、ディープラーニングベースのコンピュータビジョンの広い範囲において重要な役割を果たす。
この文脈において不確かさの定量化が広く研究され、モデル無知(認識の不確実性)やデータ曖昧さ(アラート的不確実性)を表現し、不正な意思決定を防ぐことができる。
この研究は、分野の進歩を左右する不確実性の基本概念と様々なタスクへの応用について議論することで、確率的セグメンテーションの包括的概要を提供する。
論文 参考訳(メタデータ) (2024-11-25T13:26:09Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Representations of epistemic uncertainty and awareness in data-driven
strategies [0.0]
本稿では,エージェントによる知識表現とその伝達における不確実性の理論モデルを提案する。
我々は、推論、嗜好関係、情報測度の観点から、等価な知識表現を考察する。
本稿では,データ駆動戦略における提案モデルの有効性について論じる。
論文 参考訳(メタデータ) (2021-10-21T21:18:21Z) - FAIR: Fair Adversarial Instance Re-weighting [0.7829352305480285]
本研究では,公正な予測を確実にするインスタンス重み付け関数の学習に敵対的トレーニングを利用するFair Adrial Instance Re-weighting(FAIR)手法を提案する。
我々の知る限りでは、これは、個々のインスタンスの公平性に関する解釈可能な情報を提供する重み付け関数によって、再重み付けと逆方向のアプローチをマージする最初のモデルである。
論文 参考訳(メタデータ) (2020-11-15T10:48:56Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。