論文の概要: Recent Advances in Adversarial Training for Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2102.01356v1
- Date: Tue, 2 Feb 2021 07:10:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:28:18.332147
- Title: Recent Advances in Adversarial Training for Adversarial Robustness
- Title(参考訳): 対向ロバストネスのための対向訓練の最近の進歩
- Authors: Tao Bai, Jinqi Luo, Jun Zhao, Bihan Wen
- Abstract要約: ディープラーニングモデルを騙すための逆例は、ここ数年研究され、今でもホットなトピックである。
敵の訓練も、敵の例を守る効果から大きな注目を集めている。
敵の訓練に関する多くの新しい理論と理解が提案されている。
- 参考スコア(独自算出の注目度): 22.436303311891276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples for fooling deep learning models have been studied for
several years and are still a hot topic. Adversarial training also receives
enormous attention because of its effectiveness in defending adversarial
examples. However, adversarial training is not perfect, many questions of which
remain to solve. During the last few years, researchers in this community have
studied and discussed adversarial training from various aspects. Many new
theories and understandings of adversarial training have been proposed. In this
survey, we systematically review the recent progress on adversarial training
for the first time, categorized by different improvements. Then we discuss the
generalization problems in adversarial training from three perspectives.
Finally, we highlight the challenges which are not fully solved and present
potential future directions.
- Abstract(参考訳): ディープラーニングモデルをだますための逆例は、数年前から研究されており、まだホットなトピックです。
敵の訓練も、敵の例を守る効果から大きな注目を集めている。
しかし、敵の訓練は完璧ではなく、解決すべき問題が多い。
過去数年間、このコミュニティの研究者は様々な側面から敵の訓練を研究し、議論してきた。
敵対的訓練の多くの新しい理論と理解が提案されている。
本研究は, 敵意訓練の最近の進歩を, 異なる改善によって分類し, 初めて体系的に検討するものである。
次に, 対人訓練における一般化問題について3つの視点から考察する。
最後に,未解決の課題を浮き彫りにして,今後の方向性について述べる。
関連論文リスト
- Adversarial Training: A Survey [130.89534734092388]
相手トレーニング(英語: Adversarial Training、AT)とは、相手の例をトレーニングプロセスに統合することである。
近年の研究では、様々な敵攻撃に対するディープニューラルネットワークの堅牢性向上におけるATの有効性が実証されている。
論文 参考訳(メタデータ) (2024-10-19T08:57:35Z) - Adversarial Attacks and Defenses on 3D Point Cloud Classification: A
Survey [28.21038594191455]
優れた成果にもかかわらず、ディープラーニングアルゴリズムは敵の攻撃に対して脆弱である。
本稿では,まず,敵攻撃の原理と特徴を紹介し,敵の事例生成手法を要約し,分析する。
また、データ重視およびモデル重視の方法で組織された防衛戦略の概要も提供する。
論文 参考訳(メタデータ) (2023-07-01T11:46:36Z) - Adversarial Pretraining of Self-Supervised Deep Networks: Past, Present
and Future [132.34745793391303]
本稿では,畳み込みニューラルネットワークと視覚変換器の両方を含む自己教師型深層ネットワークの対角的事前学習について検討する。
対戦相手を入力レベルと特徴レベルのいずれかの事前学習モデルに組み込むには、既存のアプローチは2つのグループに大別される。
論文 参考訳(メタデータ) (2022-10-23T13:14:06Z) - Collaborative Adversarial Training [82.25340762659991]
本研究は, 対人的, 良性的な両例とほぼ区別できない, 協調的な事例が, 対人的訓練の強化に有効であることを示す。
そこで,コラボレーティブ・ディベザリ・トレーニング(CoAT)と呼ばれる新しい手法が提案され,新たな最先端技術が実現された。
論文 参考訳(メタデータ) (2022-05-23T09:41:41Z) - A Survey of Robust Adversarial Training in Pattern Recognition:
Fundamental, Theory, and Methodologies [26.544748192629367]
近年の研究では、ニューラルネットワークは、敵対的な例と呼ばれる、知覚不能に摂動する入力サンプルによって容易に騙されることが示されている。
このようなセキュリティの脆弱性は、ニューラルネットワークの膨大な応用により、現実世界の脅威がもたらされる可能性があるため、近年、大きな研究結果をもたらしている。
特にパターン認識における敵の例に対する頑健性の問題に対処するために、頑健な敵の訓練が主流となっている。
論文 参考訳(メタデータ) (2022-03-26T11:00:25Z) - On the Impact of Hard Adversarial Instances on Overfitting in
Adversarial Training [72.95029777394186]
敵の訓練は、敵の攻撃に対してモデルを強固にするための一般的な方法である。
トレーニングインスタンスの観点から,この現象を考察する。
逆行訓練における一般化性能の低下は, 強行訓練に適合するモデルが試みた結果であることを示す。
論文 参考訳(メタデータ) (2021-12-14T12:19:24Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Towards Understanding Fast Adversarial Training [91.8060431517248]
高速対人訓練の振る舞いを理解するために実験を行う。
その成功の鍵は、過度な適合から弱い攻撃への回復能力である。
論文 参考訳(メタデータ) (2020-06-04T18:19:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。