論文の概要: MemLoss: Enhancing Adversarial Training with Recycling Adversarial Examples
- arxiv url: http://arxiv.org/abs/2510.09105v1
- Date: Fri, 10 Oct 2025 07:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.397303
- Title: MemLoss: Enhancing Adversarial Training with Recycling Adversarial Examples
- Title(参考訳): MemLoss: リサイクルを事例とした対人訓練の強化
- Authors: Soroush Mahdi, Maryam Amirmazlaghani, Saeed Saravani, Zahra Dehghanian,
- Abstract要約: 本稿では,機械学習モデルの対戦訓練を改善するために,MemLossと呼ばれる新しい手法を提案する。
MemLossは'Memory Adversarial Examples'と呼ばれる以前に生成された敵の例を利用して、クリーンなデータのパフォーマンスを損なうことなく、モデルの堅牢性と精度を向上させる。
- 参考スコア(独自算出の注目度): 8.271360363170922
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new approach called MemLoss to improve the adversarial training of machine learning models. MemLoss leverages previously generated adversarial examples, referred to as 'Memory Adversarial Examples,' to enhance model robustness and accuracy without compromising performance on clean data. By using these examples across training epochs, MemLoss provides a balanced improvement in both natural accuracy and adversarial robustness. Experimental results on multiple datasets, including CIFAR-10, demonstrate that our method achieves better accuracy compared to existing adversarial training methods while maintaining strong robustness against attacks.
- Abstract(参考訳): 本稿では,機械学習モデルの対戦訓練を改善するために,MemLossと呼ばれる新しい手法を提案する。
MemLossは'Memory Adversarial Examples'と呼ばれる以前に生成された敵の例を利用して、クリーンなデータのパフォーマンスを損なうことなく、モデルの堅牢性と精度を向上させる。
これらの例をトレーニングエポック全体にわたって使用することにより、MemLossは、自然な精度と敵の堅牢性の両方においてバランスのとれた改善を提供する。
CIFAR-10を含む複数のデータセットに対する実験結果から,攻撃に対する強靭性を維持しつつ,既存の敵の訓練方法と比較して精度が向上していることが示された。
関連論文リスト
- Enhancing Robustness in Incremental Learning with Adversarial Training [15.184564265850382]
本研究では,漸進学習における対人ロバスト性を扱うARCIL(Adversarially Robust Class Incremental Learning)について検討する。
まず,新たな知識の獲得と過去の知識の保持の相反を招き,既存の学習手法と漸進的な学習を統合した一連のベースラインについて検討する。
textbfFLatness-versa textbfAdversarial textbfIncremental Learning for textbfRobustness (textbfFLAIR)。
論文 参考訳(メタデータ) (2023-12-06T04:38:02Z) - A Data-Centric Approach for Improving Adversarial Training Through the
Lens of Out-of-Distribution Detection [0.4893345190925178]
複雑なアルゴリズムを適用して効果を緩和するのではなく, トレーニング手順から直接ハードサンプルを検出し, 除去することを提案する。
SVHN と CIFAR-10 データセットを用いた結果,計算コストの増大を伴わずに対角訓練の改善に本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-01-25T08:13:50Z) - Boundary Adversarial Examples Against Adversarial Overfitting [4.391102490444538]
敵の訓練アプローチは頑強なオーバーフィッティングに苦しむが、モデルがあまりに長く敵の訓練を受けると、頑健な精度が低下する。
強靭なオーバーフィッティングの効果を軽減するため, 早期停止, 時間的アンサンブル, 体重記憶などの緩和手法が提案されている。
本稿では,これらの緩和アプローチが相互に補完的であるかどうかを,対向訓練性能の向上のために検討する。
論文 参考訳(メタデータ) (2022-11-25T13:16:53Z) - Efficient Adversarial Training With Data Pruning [26.842714298874192]
我々は,データプルーニングが,対人訓練の収束と信頼性の向上につながることを示す。
一部の設定では、データのプルーニングは両方の世界の利点をもたらします。
論文 参考訳(メタデータ) (2022-07-01T23:54:46Z) - Adversarial Unlearning: Reducing Confidence Along Adversarial Directions [88.46039795134993]
本稿では,自己生成事例の信頼性を低下させる補完的な正規化戦略を提案する。
RCADと呼ばれるこの手法は、トレーニング損失を増やすために反対に選択された方向に沿って横たわっている流通外の事例に対する信頼性を低下させることを目的としている。
その単純さにもかかわらず、多くの分類ベンチマークでは、RCADを既存の技術に追加して、絶対値の1~3%の精度でテストできることがわかった。
論文 参考訳(メタデータ) (2022-06-03T02:26:24Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Bag of Tricks for Adversarial Training [50.53525358778331]
アドリアリトレーニングは、モデルの堅牢性を促進するための最も効果的な戦略の1つである。
最近のベンチマークでは、提案されたATの改良のほとんどは、単にトレーニング手順を早期に停止するよりも効果が低いことが示されている。
論文 参考訳(メタデータ) (2020-10-01T15:03:51Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Efficient Adversarial Training with Transferable Adversarial Examples [58.62766224452761]
同じトレーニングプロセスにおいて、近隣のエポックからのモデル間で高い転送可能性があることが示される。
本稿では,ATTA(Adversarial Training with Transferable Adversarial Examples)を提案する。
論文 参考訳(メタデータ) (2019-12-27T03:05:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。