論文の概要: Adversarial Training: A Survey
- arxiv url: http://arxiv.org/abs/2410.15042v1
- Date: Sat, 19 Oct 2024 08:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:20:19.167308
- Title: Adversarial Training: A Survey
- Title(参考訳): 対人訓練 : アンケート調査
- Authors: Mengnan Zhao, Lihe Zhang, Jingwen Ye, Huchuan Lu, Baocai Yin, Xinchao Wang,
- Abstract要約: 相手トレーニング(英語: Adversarial Training、AT)とは、相手の例をトレーニングプロセスに統合することである。
近年の研究では、様々な敵攻撃に対するディープニューラルネットワークの堅牢性向上におけるATの有効性が実証されている。
- 参考スコア(独自算出の注目度): 130.89534734092388
- License:
- Abstract: Adversarial training (AT) refers to integrating adversarial examples -- inputs altered with imperceptible perturbations that can significantly impact model predictions -- into the training process. Recent studies have demonstrated the effectiveness of AT in improving the robustness of deep neural networks against diverse adversarial attacks. However, a comprehensive overview of these developments is still missing. This survey addresses this gap by reviewing a broad range of recent and representative studies. Specifically, we first describe the implementation procedures and practical applications of AT, followed by a comprehensive review of AT techniques from three perspectives: data enhancement, network design, and training configurations. Lastly, we discuss common challenges in AT and propose several promising directions for future research.
- Abstract(参考訳): 敵対的トレーニング(英語: Adversarial Training、AT)とは、モデル予測に大きな影響を及ぼすような、知覚不可能な摂動で変化した入力を、トレーニングプロセスに統合することである。
近年の研究では、様々な敵攻撃に対するディープニューラルネットワークの堅牢性向上におけるATの有効性が実証されている。
しかし、これらの開発の概要はいまだに欠落している。
本調査は,近年および代表的研究の幅広い範囲をレビューすることによって,このギャップに対処する。
具体的には、まずATの実装手順と実用化について述べ、続いてデータ強化、ネットワーク設計、トレーニング構成という3つの視点からAT技術の総合的なレビューを行った。
最後に,ATにおける共通課題について論じ,今後の研究に期待できる方向をいくつか提案する。
関連論文リスト
- Adversarial Training via Adaptive Knowledge Amalgamation of an Ensemble of Teachers [0.0]
Adversarial Training (AT)は、強力なディープニューラルネットワーク(DNN)を敵の攻撃に対して訓練する一般的な方法である。
本稿では,教師のアンサンブル(AT-aka)のアダプティブ・ナレッジ・アマルガメーションによる対人訓練について紹介する。
特に,教師のアンサンブルへの入力として多種多様な対人サンプルを生成し,これらの教師の対物関係を適応化し,汎用的なローバストな生徒を訓練する。
論文 参考訳(メタデータ) (2024-05-22T03:47:55Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Adversarial Pretraining of Self-Supervised Deep Networks: Past, Present
and Future [132.34745793391303]
本稿では,畳み込みニューラルネットワークと視覚変換器の両方を含む自己教師型深層ネットワークの対角的事前学習について検討する。
対戦相手を入力レベルと特徴レベルのいずれかの事前学習モデルに組み込むには、既存のアプローチは2つのグループに大別される。
論文 参考訳(メタデータ) (2022-10-23T13:14:06Z) - Evaluating the Susceptibility of Pre-Trained Language Models via
Handcrafted Adversarial Examples [0.0]
我々は、GPT-3の公開リリースにおける重大なセキュリティ脆弱性を強調し、この脆弱性を他の最先端のPLMで調査する。
我々は,トークン距離最小化摂動を,教師なしと教師なしの両方の品質対策を回避し,効果的な敵対的アプローチとして評価する。
論文 参考訳(メタデータ) (2022-09-05T20:29:17Z) - Recent Few-Shot Object Detection Algorithms: A Survey with Performance
Comparison [54.357707168883024]
Few-Shot Object Detection (FSOD)は、人間の学習能力を模倣する。
FSODは、学習した汎用オブジェクトの知識を共通のヘビーテールから新しいロングテールオブジェクトクラスにインテリジェントに転送する。
本稿では,問題定義,共通データセット,評価プロトコルなどを含むFSODの概要を紹介する。
論文 参考訳(メタデータ) (2022-03-27T04:11:28Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Recent Advances in Adversarial Training for Adversarial Robustness [22.436303311891276]
ディープラーニングモデルを騙すための逆例は、ここ数年研究され、今でもホットなトピックである。
敵の訓練も、敵の例を守る効果から大きな注目を集めている。
敵の訓練に関する多くの新しい理論と理解が提案されている。
論文 参考訳(メタデータ) (2021-02-02T07:10:22Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。