論文の概要: ANCHOR: Integrating Adversarial Training with Hard-mined Supervised Contrastive Learning for Robust Representation Learning
- arxiv url: http://arxiv.org/abs/2510.27599v1
- Date: Fri, 31 Oct 2025 16:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.164027
- Title: ANCHOR: Integrating Adversarial Training with Hard-mined Supervised Contrastive Learning for Robust Representation Learning
- Title(参考訳): ANCHOR:ロバスト表現学習のためのハードマイニング・スーパービジョン・コントラスト学習による対人訓練の統合
- Authors: Samarup Bhattacharya, Anubhab Bhattacharya, Abir Chakraborty,
- Abstract要約: モデルは勾配に従って学習し、データの中で最も識別しやすいパターンを特定するまで、パラメータを段階的に調整する。
モデル学習を支援する勾配は、モデルが決定を完全に変更する原因となる、小さく、受け入れがたい微調整を生成するためにも使用することができる。
これらの攻撃は、この脆弱性を悪用し、画像に小さな、知覚不能な変更を加えることで、人間の目と同じものを残しながら、モデルが間違った予測をする原因となる。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks have changed the way machines interpret the world. At their core, they learn by following gradients, adjusting their parameters step by step until they identify the most discriminant patterns in the data. This process gives them their strength, yet it also opens the door to a hidden flaw. The very gradients that help a model learn can also be used to produce small, imperceptible tweaks that cause the model to completely alter its decision. Such tweaks are called adversarial attacks. These attacks exploit this vulnerability by adding tiny, imperceptible changes to images that, while leaving them identical to the human eye, cause the model to make wrong predictions. In this work, we propose Adversarially-trained Contrastive Hard-mining for Optimized Robustness (ANCHOR), a framework that leverages the power of supervised contrastive learning with explicit hard positive mining to enable the model to learn representations for images such that the embeddings for the images, their augmentations, and their perturbed versions cluster together in the embedding space along with those for other images of the same class while being separated from images of other classes. This alignment helps the model focus on stable, meaningful patterns rather than fragile gradient cues. On CIFAR-10, our approach achieves impressive results for both clean and robust accuracy under PGD-20 (epsilon = 0.031), outperforming standard adversarial training methods. Our results indicate that combining adversarial guidance with hard-mined contrastive supervision helps models learn more structured and robust representations, narrowing the gap between accuracy and robustness.
- Abstract(参考訳): ニューラルネットワークは、機械が世界を解釈する方法を変えた。
中心となるのは勾配に従って学習し、データの中で最も識別しやすいパターンを特定するまで、パラメータを段階的に調整する。
このプロセスは彼らに強みを与えるが、秘密の欠陥への扉を開く。
モデル学習を支援する勾配は、モデルが決定を完全に変更する原因となる、小さく、受け入れがたい微調整を生成するためにも使用することができる。
このような微調整を敵攻撃と呼ぶ。
これらの攻撃は、この脆弱性を悪用し、画像に小さな、知覚不能な変更を加えることで、人間の目と同じものを残しながら、モデルが間違った予測をする原因となる。
そこで本研究では, 教師付きコントラスト学習のパワーと明示的な強靭なマイニングを両立させるフレームワークであるAdversarially-trained Contrastive Hard-mining for Optimized Robustness (ANCHOR)を提案する。
このアライメントは、モデルを脆弱な勾配キューではなく、安定的で意味のあるパターンにフォーカスするのに役立ちます。
CIFAR-10では, PGD-20 (epsilon = 0.031) の精度と精度の両立が図られ, 標準的な対向訓練法よりも優れていた。
この結果から, 逆方向誘導と強み付きコントラスト監視を組み合わせることで, モデルがより構造化され, 頑健な表現を学習し, 精度と頑健さのギャップを狭めることが示唆された。
関連論文リスト
- C-LEAD: Contrastive Learning for Enhanced Adversarial Defense [21.31610891219127]
ディープニューラルネットワーク(DNN)は、画像分類、セグメンテーション、オブジェクト検出などのコンピュータビジョンタスクにおいて顕著な成功を収めている。
敵の攻撃に対して脆弱であり、入力画像に小さな摂動を伴う誤った予測を引き起こす可能性がある。
本稿では,対人防御のためのコントラスト学習を利用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-10-31T07:32:55Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Rethinking Robust Contrastive Learning from the Adversarial Perspective [2.3333090554192615]
標準学習ネットワークでは,敵とクリーンな表現の相違が顕著である。
敵の訓練は、これらの格差を緩和し、普遍的な集合に対する表現の収束を促進する。
論文 参考訳(メタデータ) (2023-02-05T22:43:50Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。