論文の概要: Data Profiling for Adversarial Training: On the Ruin of Problematic Data
- arxiv url: http://arxiv.org/abs/2102.07437v1
- Date: Mon, 15 Feb 2021 10:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:35:52.365539
- Title: Data Profiling for Adversarial Training: On the Ruin of Problematic Data
- Title(参考訳): 対人訓練のためのデータプロファイリング:問題データの残存について
- Authors: Chengyu Dong, Liyuan Liu, Jingbo Shang
- Abstract要約: 相手のトレーニングの問題は、堅牢な精度のトレードオフ、堅牢なオーバーフィッティング、グラデーションマスキングです。
これらの問題は、データセットの低品質サンプルという共通の原因を共有していることを示しています。
問題のあるデータが削除されると、ロバストなオーバーフィッティングと勾配マスキングがほとんど緩和される。
- 参考スコア(独自算出の注目度): 27.11328449349065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiple intriguing problems hover in adversarial training, including
robustness-accuracy trade-off, robust overfitting, and gradient masking, posing
great challenges to both reliable evaluation and practical deployment. Here, we
show that these problems share one common cause -- low quality samples in the
dataset. We first identify an intrinsic property of the data called problematic
score and then design controlled experiments to investigate its connections
with these problems. Specifically, we find that when problematic data is
removed, robust overfitting and gradient masking can be largely alleviated; and
robustness-accuracy trade-off is more prominent for a dataset containing highly
problematic data. These observations not only verify our intuition about data
quality but also open new opportunities to advance adversarial training.
Remarkably, simply removing problematic data from adversarial training, while
making the training set smaller, yields better robustness consistently with
different adversary settings, training methods, and neural architectures.
- Abstract(参考訳): 堅牢な精度のトレードオフ、堅牢なオーバーフィッティング、グラデーションマスキングなど、複数の魅力的な問題は、信頼できる評価と実践的な展開の両方に大きな課題をもたらしています。
ここでは、これらの問題が共通の原因であるデータセットの低品質サンプルを共有していることを示します。
まず、問題スコアと呼ばれるデータの本質的な特性を特定し、その後、これらの問題との関連性を調べるために制御実験を設計する。
具体的には、問題のあるデータが削除されると、堅牢なオーバーフィットとグラデーションのマスキングが大幅に軽減され、非常に問題の多いデータを含むデータセットでは堅牢な精度のトレードオフがより顕著になります。
これらの観察は、データ品質に関する直観を検証するだけでなく、敵の訓練を進める新たな機会を開く。
驚くべきことに、問題のあるデータを敵のトレーニングから取り除き、トレーニングセットを小さくすることで、異なる敵の設定、トレーニング方法、ニューラルネットワークアーキテクチャで一貫して堅牢性が向上する。
関連論文リスト
- DataFreeShield: Defending Adversarial Attacks without Training Data [32.29186953320468]
実データにアクセスせずにロバスト性を達成しようとする,データフリーの対向ロバスト性の問題について検討する。
本稿では,データセット生成と逆トレーニングという2つの観点からこの問題に対処するDataFreeShieldを提案する。
本稿では,DataFreeShieldがベースラインよりも優れていることを示すとともに,提案手法が対向ロバスト性問題に対する最初の完全データフリーソリューションであることを示す。
論文 参考訳(メタデータ) (2024-06-21T20:24:03Z) - Can We Enhance the Quality of Mobile Crowdsensing Data Without Ground Truth? [45.875832406278214]
モバイル・クラウドセンシング(MCS)は、様々な領域で顕著なトレンドとなっている。
本稿では,予測と評価に基づく真理発見フレームワークを提案する。
センシングタスクにおいて、低品質のデータを高品質のデータから分離することができる。
論文 参考訳(メタデータ) (2024-05-29T03:16:12Z) - Corrective Machine Unlearning [22.342035149807923]
我々は、未知の操作が学習モデルに与える影響を緩和する問題として、矯正機械学習を定式化する。
削除セットを使わずにスクラッチから再学習するなど、既存の未学習手法の多くは、有効な修正未学習のために、操作されたデータの大部分を識別する必要がある。
選択的シナプス減衰法(Selective Synaptic Dampening)は, 操作したサンプルのごく一部で, 有害な効果を学習することなく, 限られた成功を達成している。
論文 参考訳(メタデータ) (2024-02-21T18:54:37Z) - Building Manufacturing Deep Learning Models with Minimal and Imbalanced
Training Data Using Domain Adaptation and Data Augmentation [15.333573151694576]
本稿では,目標学習課題に対するラベル付き学習データ不足の問題に対処する新しいドメイン適応(DA)手法を提案する。
我々のアプローチは、ソースデータセットとターゲット学習タスクで利用可能なデータセットが同一または異なる機能空間を持つシナリオで機能する。
我々は、ウェハ欠陥予測のための画像データを用いて、組み合わせたアプローチを評価する。
論文 参考訳(メタデータ) (2023-05-31T21:45:34Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Understanding Robust Overfitting of Adversarial Training and Beyond [103.37117541210348]
深層ネットワークの敵対的訓練において,強靭なオーバーフィッティングが広く存在することを示す。
自覚的損失制約付き対位訓練(MLCAT)を提案する。
ミニバッチでは、大容量データを通常通り学習し、小容量データの損失を増やすために追加の措置を採用する。
論文 参考訳(メタデータ) (2022-06-17T10:25:17Z) - On Covariate Shift of Latent Confounders in Imitation and Reinforcement
Learning [69.48387059607387]
模擬・強化学習において,未観測の共同設立者と専門家データを併用することの問題点を考察する。
我々は、外部報酬を伴わずに、確立した専門家データから学ぶことの限界を分析する。
我々は,支援医療とレコメンデーションシステムシミュレーションの課題に挑戦する上で,我々の主張を実証的に検証する。
論文 参考訳(メタデータ) (2021-10-13T07:31:31Z) - Improving filling level classification with adversarial training [90.01594595780928]
単一画像からカップや飲料グラスのコンテントのレベルを分類する問題について検討する。
汎用ソースデータセットで逆トレーニングを使用し、タスク固有のデータセットでトレーニングを洗練します。
ソース領域における逆学習による伝達学習は,テストセットの分類精度を常に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-08T08:32:56Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Precise Tradeoffs in Adversarial Training for Linear Regression [55.764306209771405]
本稿では,ガウス的特徴を伴う線形回帰の文脈における対人訓練の役割を,正確かつ包括的に理解する。
我々は,同時代のミニマックス対逆訓練手法によって達成された標準/ロバスト精度とそれに対応するトレードオフを正確に特徴づける。
逆行訓練アルゴリズムの理論は、様々な要因(トレーニングデータのサイズや品質、モデルの過度化など)がこれらの2つの競合するアキュラシー間のトレードオフにどのように影響するかを厳密に研究する上で役立ちます。
論文 参考訳(メタデータ) (2020-02-24T19:01:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。