論文の概要: Improving LIME Robustness with Smarter Locality Sampling
- arxiv url: http://arxiv.org/abs/2006.12302v3
- Date: Sun, 21 Mar 2021 11:13:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:03:00.099466
- Title: Improving LIME Robustness with Smarter Locality Sampling
- Title(参考訳): よりスマートな局所サンプリングによるLIMEロバストネスの改善
- Authors: Sean Saito, Eugene Chua, Nicholas Capel, Rocco Hu
- Abstract要約: 我々は、よりリアルな合成データをサンプリングするために、生成的敵ネットワークをトレーニングすることで、LIMEをより堅牢にすることを提案する。
実験では, 実世界の3つのデータセットにまたがって, 偏りのある, 逆向きな行動を検出する精度が向上することを示した。
これは、いくつかのケースでは、トップ1の精度で99.94%まで、同等な説明品質を維持しながら達成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability algorithms such as LIME have enabled machine learning systems
to adopt transparency and fairness, which are important qualities in commercial
use cases. However, recent work has shown that LIME's naive sampling strategy
can be exploited by an adversary to conceal biased, harmful behavior. We
propose to make LIME more robust by training a generative adversarial network
to sample more realistic synthetic data which the explainer uses to generate
explanations. Our experiments demonstrate that our proposed method demonstrates
an increase in accuracy across three real-world datasets in detecting biased,
adversarial behavior compared to vanilla LIME. This is achieved while
maintaining comparable explanation quality, with up to 99.94\% in top-1
accuracy in some cases.
- Abstract(参考訳): LIMEのような説明可能性アルゴリズムにより、機械学習システムは透明性と公正さを適用できるようになった。
しかし、近年の研究では、LIMEの素直なサンプリング戦略が敵に悪用され、偏見があり有害な行動を隠すことができることが示されている。
そこで本稿では,LIME がより現実的な合成データを抽出し,説明文を生成することによって,LIME をより堅牢にすることを提案する。
提案手法は,実世界の3つのデータセットにおいて,バニラライムと比較して偏りのある逆挙動の検出において精度が向上することを示す。
これは比較可能な説明品質を維持しながら達成され、場合によってはトップ1の精度で最大99.94\%に達する。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Boosting Disfluency Detection with Large Language Model as Disfluency Generator [8.836888435915077]
本稿では,拡散検出のための軽量なデータ拡張手法を提案する。
拡張データとして,大言語モデル(LLM)を用いて不自由な文を生成する。
文の質を向上させるために不確実性を考慮したデータフィルタリング手法を適用する。
論文 参考訳(メタデータ) (2024-03-13T04:14:33Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fair Supervised Learning with A Simple Random Sampler of Sensitive
Attributes [13.988497790151651]
本研究は,ニューラルネットワークによって学習された公正な罰則を,非識別的教師付き学習のための感度属性の単純なランダムサンプリングを用いて提案する。
計算効率のよいグループレベルのフェアネス対応トレーニングフレームワークを構築した。
実証的な証拠は、我々のフレームワークが競合する手法よりも人気のあるベンチマークデータセットの有効性と公平性を享受していることを示している。
論文 参考訳(メタデータ) (2023-11-10T04:38:13Z) - MMD-B-Fair: Learning Fair Representations with Statistical Testing [4.669892068997491]
本稿では,カーネル2サンプルテストによるデータの公平な表現を学習するためのMDD-B-Fairを提案する。
対象の属性に関する情報を保存しながら, 最大平均不一致(MMD)テストでは, 異なるセンシティブなグループの表現を区別できないという, データのニューラルな特徴を見出した。
論文 参考訳(メタデータ) (2022-11-15T05:25:38Z) - Improving the Adversarial Robustness of NLP Models by Information
Bottleneck [112.44039792098579]
非破壊機能は敵によって容易に操作でき、NLPモデルを騙すことができる。
本研究では,情報ボトルネック理論を用いて,タスク固有のロバストな特徴を捕捉し,非ロバストな特徴を除去する可能性を検討する。
情報ボトルネックに基づく手法を用いてトレーニングしたモデルでは,ロバストな精度で大幅な改善が達成できることを示す。
論文 参考訳(メタデータ) (2022-06-11T12:12:20Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Learn what you can't learn: Regularized Ensembles for Transductive
Out-of-distribution Detection [76.39067237772286]
ニューラルネットワークの現在のアウト・オブ・ディストリビューション(OOD)検出アルゴリズムは,様々なOOD検出シナリオにおいて不満足な結果をもたらすことを示す。
本稿では,テストデータのバッチを観察した後に検出方法を調整することで,このような「ハード」なOODシナリオがいかに有用かを検討する。
本稿では,テストデータと正規化に人工ラベリング手法を用いて,テストバッチ内のOODサンプルに対してのみ矛盾予測を生成するモデルのアンサンブルを求める手法を提案する。
論文 参考訳(メタデータ) (2020-12-10T16:55:13Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。