論文の概要: Data Profiling for Adversarial Training: On the Ruin of Problematic Data
- arxiv url: http://arxiv.org/abs/2102.07437v1
- Date: Mon, 15 Feb 2021 10:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:35:52.365539
- Title: Data Profiling for Adversarial Training: On the Ruin of Problematic Data
- Title(参考訳): 対人訓練のためのデータプロファイリング:問題データの残存について
- Authors: Chengyu Dong, Liyuan Liu, Jingbo Shang
- Abstract要約: 相手のトレーニングの問題は、堅牢な精度のトレードオフ、堅牢なオーバーフィッティング、グラデーションマスキングです。
これらの問題は、データセットの低品質サンプルという共通の原因を共有していることを示しています。
問題のあるデータが削除されると、ロバストなオーバーフィッティングと勾配マスキングがほとんど緩和される。
- 参考スコア(独自算出の注目度): 27.11328449349065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple intriguing problems hover in adversarial training, including
robustness-accuracy trade-off, robust overfitting, and gradient masking, posing
great challenges to both reliable evaluation and practical deployment. Here, we
show that these problems share one common cause -- low quality samples in the
dataset. We first identify an intrinsic property of the data called problematic
score and then design controlled experiments to investigate its connections
with these problems. Specifically, we find that when problematic data is
removed, robust overfitting and gradient masking can be largely alleviated; and
robustness-accuracy trade-off is more prominent for a dataset containing highly
problematic data. These observations not only verify our intuition about data
quality but also open new opportunities to advance adversarial training.
Remarkably, simply removing problematic data from adversarial training, while
making the training set smaller, yields better robustness consistently with
different adversary settings, training methods, and neural architectures.
- Abstract(参考訳): 堅牢な精度のトレードオフ、堅牢なオーバーフィッティング、グラデーションマスキングなど、複数の魅力的な問題は、信頼できる評価と実践的な展開の両方に大きな課題をもたらしています。
ここでは、これらの問題が共通の原因であるデータセットの低品質サンプルを共有していることを示します。
まず、問題スコアと呼ばれるデータの本質的な特性を特定し、その後、これらの問題との関連性を調べるために制御実験を設計する。
具体的には、問題のあるデータが削除されると、堅牢なオーバーフィットとグラデーションのマスキングが大幅に軽減され、非常に問題の多いデータを含むデータセットでは堅牢な精度のトレードオフがより顕著になります。
これらの観察は、データ品質に関する直観を検証するだけでなく、敵の訓練を進める新たな機会を開く。
驚くべきことに、問題のあるデータを敵のトレーニングから取り除き、トレーニングセットを小さくすることで、異なる敵の設定、トレーニング方法、ニューラルネットワークアーキテクチャで一貫して堅牢性が向上する。
関連論文リスト
- Combating noisy labels in object detection datasets [0.24466725954625884]
本稿では,オブジェクト検出データセットにおける各ラベルの品質を評価するためのCLODアルゴリズムを提案する。
トレーニングデータセットの誤った例を見つけることに集中することで、ルートでそれらを排除できます。
提案手法では, 擬陽性率0.3未満の人工乱れ箱の99%を指摘できる。
論文 参考訳(メタデータ) (2022-11-25T10:05:06Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Understanding Robust Overfitting of Adversarial Training and Beyond [103.37117541210348]
深層ネットワークの敵対的訓練において,強靭なオーバーフィッティングが広く存在することを示す。
自覚的損失制約付き対位訓練(MLCAT)を提案する。
ミニバッチでは、大容量データを通常通り学習し、小容量データの損失を増やすために追加の措置を採用する。
論文 参考訳(メタデータ) (2022-06-17T10:25:17Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - Improving filling level classification with adversarial training [90.01594595780928]
単一画像からカップや飲料グラスのコンテントのレベルを分類する問題について検討する。
汎用ソースデータセットで逆トレーニングを使用し、タスク固有のデータセットでトレーニングを洗練します。
ソース領域における逆学習による伝達学習は,テストセットの分類精度を常に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-08T08:32:56Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Unique properties of adversarially trained linear classifiers on
Gaussian data [13.37805637358556]
対人学習研究コミュニティは 対人摂動の根本原因を理解するために 顕著な進歩を遂げています
現実のデータセットに洞察が移ることを期待して、単純な問題に対する逆向きに頑健な学習理論を開発することが一般的である。
特に線形分類器を用いて、任意のレベルの逆汚職の下でガウスデータの二項分類問題を解くことは常に可能であることを示す。
論文 参考訳(メタデータ) (2020-06-06T14:06:38Z) - Precise Tradeoffs in Adversarial Training for Linear Regression [55.764306209771405]
本稿では,ガウス的特徴を伴う線形回帰の文脈における対人訓練の役割を,正確かつ包括的に理解する。
我々は,同時代のミニマックス対逆訓練手法によって達成された標準/ロバスト精度とそれに対応するトレードオフを正確に特徴づける。
逆行訓練アルゴリズムの理論は、様々な要因(トレーニングデータのサイズや品質、モデルの過度化など)がこれらの2つの競合するアキュラシー間のトレードオフにどのように影響するかを厳密に研究する上で役立ちます。
論文 参考訳(メタデータ) (2020-02-24T19:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。