論文の概要: C-LEAD: Contrastive Learning for Enhanced Adversarial Defense
- arxiv url: http://arxiv.org/abs/2510.27249v1
- Date: Fri, 31 Oct 2025 07:32:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.022519
- Title: C-LEAD: Contrastive Learning for Enhanced Adversarial Defense
- Title(参考訳): C-LEAD: 対人防御強化のためのコントラストラーニング
- Authors: Suklav Ghosh, Sonal Kumar, Arijit Sur,
- Abstract要約: ディープニューラルネットワーク(DNN)は、画像分類、セグメンテーション、オブジェクト検出などのコンピュータビジョンタスクにおいて顕著な成功を収めている。
敵の攻撃に対して脆弱であり、入力画像に小さな摂動を伴う誤った予測を引き起こす可能性がある。
本稿では,対人防御のためのコントラスト学習を利用した新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 21.31610891219127
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have achieved remarkable success in computer vision tasks such as image classification, segmentation, and object detection. However, they are vulnerable to adversarial attacks, which can cause incorrect predictions with small perturbations in input images. Addressing this issue is crucial for deploying robust deep-learning systems. This paper presents a novel approach that utilizes contrastive learning for adversarial defense, a previously unexplored area. Our method leverages the contrastive loss function to enhance the robustness of classification models by training them with both clean and adversarially perturbed images. By optimizing the model's parameters alongside the perturbations, our approach enables the network to learn robust representations that are less susceptible to adversarial attacks. Experimental results show significant improvements in the model's robustness against various types of adversarial perturbations. This suggests that contrastive loss helps extract more informative and resilient features, contributing to the field of adversarial robustness in deep learning.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、画像分類、セグメンテーション、オブジェクト検出などのコンピュータビジョンタスクにおいて顕著な成功を収めている。
しかし、それらは敵の攻撃に対して脆弱であり、入力画像に小さな摂動を伴う誤った予測を引き起こす可能性がある。
この問題に対処することは、堅牢なディープラーニングシステムのデプロイに不可欠である。
本稿では,従来未探索領域であった対人防御にコントラスト学習を応用した新しいアプローチを提案する。
本手法は, 比較損失関数を利用して, クリーンかつ逆向きに摂動した画像を用いて, 分類モデルのロバスト性を高める。
モデルパラメータを摂動とともに最適化することにより、ネットワークは敵攻撃の影響を受けにくいロバスト表現を学習することができる。
実験結果から, 種々の逆方向摂動に対するモデルの頑健性は著しく向上した。
このことは、対照的な損失は、より情報的で回復力のある特徴を抽出し、深層学習における敵対的堅牢性の分野に寄与することを示唆している。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、小さな敵の摂動に対して脆弱である。
トレーニング中のロバストな特徴学習は、ロバスト性を大幅に向上させることができることを示す。
自然的特徴と敵対的特徴を整合させる多目的的手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。