論文の概要: Targeted Adversarial Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2210.10482v1
- Date: Wed, 19 Oct 2022 11:43:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 15:04:27.357635
- Title: Targeted Adversarial Self-Supervised Learning
- Title(参考訳): 対話型自己指導型学習
- Authors: Minseon Kim, Hyeonjeong Ha, Sooel Son, Sung Ju Hwang
- Abstract要約: 本稿では,自己教師付き学習(SSL)フレームワークを対象とした新たな対人訓練手法を提案する。
本手法は,大量の画像や追加モデルを必要とすることなく,SSLモデルの堅牢性を著しく向上させる。
提案手法をベンチマークデータセット上で検証し,より優れたロバストな精度を得る。
- 参考スコア(独自算出の注目度): 57.46696702569387
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently, unsupervised adversarial training (AT) has been extensively studied
to attain robustness with the models trained upon unlabeled data. To this end,
previous studies have applied existing supervised adversarial training
techniques to self-supervised learning (SSL) frameworks. However, all have
resorted to untargeted adversarial learning as obtaining targeted adversarial
examples is unclear in the SSL setting lacking of label information. In this
paper, we propose a novel targeted adversarial training method for the SSL
frameworks. Specifically, we propose a target selection algorithm for the
adversarial SSL frameworks; it is designed to select the most confusing sample
for each given instance based on similarity and entropy, and perturb the given
instance toward the selected target sample. Our method significantly enhances
the robustness of an SSL model without requiring large batches of images or
additional models, unlike existing works aimed at achieving the same goal.
Moreover, our method is readily applicable to general SSL frameworks that only
uses positive pairs. We validate our method on benchmark datasets, on which it
obtains superior robust accuracies, outperforming existing unsupervised
adversarial training methods.
- Abstract(参考訳): 近年,非教師なし対人訓練 (AT) が広範に研究され, ラベルなしデータに基づいて訓練されたモデルによる堅牢性を実現している。
この目的のために、従来の研究は自己教師付き学習(SSL)フレームワークに既存の教師付き敵訓練技術を適用してきた。
しかし,ラベル情報の欠如によるSSL設定では,対象とする敵の事例が得られないことから,未目標の敵の学習に頼っている。
本稿では,SSLフレームワークを対象とした新たな対人訓練手法を提案する。
具体的には,対応するSSLフレームワークのターゲット選択アルゴリズムを提案し,類似性とエントロピーに基づいて各インスタンスに対して最も混乱したサンプルを選択し,選択したターゲットサンプルに対して摂動する。
本手法は,同じ目標を達成するための既存手法とは異なり,大規模な画像や追加モデルを必要とすることなく,sslモデルのロバスト性を大幅に向上させる。
さらに,本手法は正のペアのみを使用する一般的なSSLフレームワークに適用可能である。
提案手法は,既存の教師なし逆行訓練法よりも優れた堅牢な精度が得られるベンチマークデータセット上で検証する。
関連論文リスト
- Discriminative Adversarial Unlearning [40.30974185546541]
我々は、min-max最適化パラダイムの確立した原則に基づいて、新しい機械学習フレームワークを導入する。
我々は、訓練されたモデルから特定のサンプルの学習を容易にするために、強力なメンバーシップ推論攻撃(MIA)の能力を利用する。
提案アルゴリズムは,スクラッチから再学習する理想的なベンチマークを,ランダムサンプルの忘れ方とクラスワイドの忘れ方の両方に近似する。
論文 参考訳(メタデータ) (2024-02-10T03:04:57Z) - Efficient Availability Attacks against Supervised and Contrastive
Learning Simultaneously [26.018467038778006]
本稿では、SLとCLの両方に有効な攻撃を得るために、教師付きエラー最小化やフレームワークにおける対照的なデータ拡張を提案する。
提案したAUE攻撃とAAP攻撃は,SLアルゴリズムとCLアルゴリズムにまたがる最先端の非学習性を実現し,消費電力を低減し,現実の応用の可能性を示す。
論文 参考訳(メタデータ) (2024-02-06T14:05:05Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Robustness through Cognitive Dissociation Mitigation in Contrastive
Adversarial Training [2.538209532048867]
本稿では,新たなニューラルネットワークトレーニングフレームワークを提案する。
本稿では,データ拡張と対向的摂動の両面に一貫性のある特徴表現を学習することで,敵攻撃に対するモデルロバスト性を改善することを提案する。
我々は,CIFAR-10データセットを用いて,教師付きおよび自己教師付き対向学習法よりも頑健な精度とクリーンな精度を両立させる手法を検証する。
論文 参考訳(メタデータ) (2022-03-16T21:41:27Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。