論文の概要: Are Data-driven Explanations Robust against Out-of-distribution Data?
- arxiv url: http://arxiv.org/abs/2303.16390v1
- Date: Wed, 29 Mar 2023 02:02:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 16:24:20.110899
- Title: Are Data-driven Explanations Robust against Out-of-distribution Data?
- Title(参考訳): データ駆動型説明は分散外データに対して堅牢か?
- Authors: Tang Li, Fengchun Qiao, Mengmeng Ma, Xi Peng
- Abstract要約: エンドツーエンドのモデルに依存しない学習フレームワークであるDis Distributionally Robust Explanations (DRE)を提案する。
鍵となる考え方は、分配情報を完全に活用して、人間のアノテーションを使わずに説明の学習のための監視信号を提供することである。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 18.760475318852375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As black-box models increasingly power high-stakes applications, a variety of
data-driven explanation methods have been introduced. Meanwhile, machine
learning models are constantly challenged by distributional shifts. A question
naturally arises: Are data-driven explanations robust against
out-of-distribution data? Our empirical results show that even though predict
correctly, the model might still yield unreliable explanations under
distributional shifts. How to develop robust explanations against
out-of-distribution data? To address this problem, we propose an end-to-end
model-agnostic learning framework Distributionally Robust Explanations (DRE).
The key idea is, inspired by self-supervised learning, to fully utilizes the
inter-distribution information to provide supervisory signals for the learning
of explanations without human annotation. Can robust explanations benefit the
model's generalization capability? We conduct extensive experiments on a wide
range of tasks and data types, including classification and regression on image
and scientific tabular data. Our results demonstrate that the proposed method
significantly improves the model's performance in terms of explanation and
prediction robustness against distributional shifts.
- Abstract(参考訳): ブラックボックスモデルがハイテイクなアプリケーションを動かすにつれて、様々なデータ駆動型説明法が導入された。
一方、機械学習モデルは分散シフトによって常に挑戦される。
データ駆動の説明は、分散データに対して堅牢か?
実験結果から,モデルが正しく予測されたとしても,分布シフト下では信頼できない説明が得られる可能性が示唆された。
分散データに対するロバストな説明を開発するにはどうすればよいか?
そこで本研究では,エンドツーエンドのモデルに依存しない学習フレームワークであるDistributedally Robust Explanations (DRE)を提案する。
鍵となる考え方は、自己指導型学習にインスパイアされ、分配情報を完全に活用し、人間のアノテーションを使わずに説明の学習のための監督的な信号を提供することである。
ロバストな説明はモデルの一般化機能に役立つか?
我々は、画像および科学表データに対する分類と回帰を含む、幅広いタスクとデータタイプに関する広範な実験を行う。
提案手法は,分布変化に対する説明と予測の堅牢性の観点から,モデルの性能を著しく向上することを示す。
関連論文リスト
- Ask Your Distribution Shift if Pre-Training is Right for You [74.18516460467019]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - Explanation Shift: How Did the Distribution Shift Impact the Model? [23.403838118256907]
本研究では,分布変化による説明特性の変化について検討した。
我々は、合成例と実世界のデータセットを用いて、異なる種類の分布シフトを分析する。
我々は、実験を再現するために使用されるコードと同様に、オープンソースのPythonパッケージでメソッドをリリースします。
論文 参考訳(メタデータ) (2023-03-14T17:13:01Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainable Artificial Intelligence: How Subsets of the Training Data
Affect a Prediction [2.3204178451683264]
データサブセットの重要性をトレーニングするためにShapley値と呼ぶ新しい方法論を提案します。
提案手法を用いて,モデルの偏りや誤ったトレーニングデータを明らかにする方法を示す。
この説明は、アルゴリズムの内部動作をより認識し、同様の予測を生成するモデルがトレーニングデータの非常に異なる部分に基づいている方法を説明することを可能にすると主張しています。
論文 参考訳(メタデータ) (2020-12-07T12:15:47Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。