論文の概要: Detecting and Corrupting Convolution-based Unlearnable Examples
- arxiv url: http://arxiv.org/abs/2311.18403v3
- Date: Tue, 10 Dec 2024 08:40:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:34:42.210725
- Title: Detecting and Corrupting Convolution-based Unlearnable Examples
- Title(参考訳): 畳み込みに基づく未知例の検出と破壊
- Authors: Minghui Li, Xianlong Wang, Zhifei Yu, Shengshan Hu, Ziqi Zhou, Longling Zhang, Leo Yu Zhang,
- Abstract要約: 畳み込みに基づく非学習可能な例(UE)では、クラスワイドな乗法的畳み込みノイズをトレーニングサンプルに適用し、モデルパフォーマンスを著しく改善する。
両線形インタポレーション(COIN)を用いて,これらのサンプルをランダム行列乗算により分解する,畳み込み型UEに対する最初の防御手法を提案する。
提案するCOINの一般化を評価するため,VUDAとHUDAという2つの畳み込み型UEを新たに設計し,畳み込み型UEの範囲を広げた。
- 参考スコア(独自算出の注目度): 15.397998038743529
- License:
- Abstract: Convolution-based unlearnable examples (UEs) employ class-wise multiplicative convolutional noise to training samples, severely compromising model performance. This fire-new type of UEs have successfully countered all defense mechanisms against UEs. The failure of such defenses can be attributed to the absence of norm constraints on convolutional noise, leading to severe blurring of image features. To address this, we first design an Edge Pixel-based Detector (EPD) to identify convolution-based UEs. Upon detection of them, we propose the first defense scheme against convolution-based UEs, COrrupting these samples via random matrix multiplication by employing bilinear INterpolation (COIN) such that disrupting the distribution of class-wise multiplicative noise. To evaluate the generalization of our proposed COIN, we newly design two convolution-based UEs called VUDA and HUDA to expand the scope of convolution-based UEs. Extensive experiments demonstrate the effectiveness of detection scheme EPD and that our defense COIN outperforms 11 state-of-the-art (SOTA) defenses, achieving a significant improvement on the CIFAR and ImageNet datasets.
- Abstract(参考訳): 畳み込みに基づく非学習可能な例(UE)では、クラスワイドな乗法的畳み込みノイズをトレーニングサンプルに適用し、モデルパフォーマンスを著しく改善する。
この火災の新しいタイプのUEは、UEに対する防御機構の全てに対処することに成功している。
このような防御の失敗は、畳み込み雑音の標準的制約が欠如していることによるものであり、画像の特徴が著しくぼやけている。
そこで我々は、まずEdge Pixelベースの検出器(EPD)を設計し、畳み込みベースのUEを識別する。
そこで本研究では, 畳み込み型UEに対する最初の防御手法を提案し, クラスワイド乗法雑音の分布を乱すような二線形インタポレーション(COIN)を用いて, ランダム行列乗法によりこれらのサンプルを分解する。
提案するCOINの一般化を評価するため,VUDAとHUDAという2つの畳み込み型UEを新たに設計し,畳み込み型UEの範囲を広げた。
大規模な実験では,検出方式EPDの有効性が実証され,防衛COINは11のSOTA(State-of-the-art)ディフェンスよりも優れており,CIFARとImageNetデータセットに大きな改善が達成されている。
関連論文リスト
- Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - Connective Reconstruction-based Novelty Detection [3.7706789983985303]
ディープラーニングにより、説明できないサンプルを含む実世界のデータを分析できるようになった。
GANベースのアプローチは、分散フィッティングを行う能力のため、この問題に対処するために広く利用されている。
本稿では,GANモデルの制約を補うために複雑化を伴わない,シンプルで効率的な再構成手法を提案する。
論文 参考訳(メタデータ) (2022-10-25T11:09:39Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - COAST: COntrollable Arbitrary-Sampling NeTwork for Compressive Sensing [27.870537087888334]
本研究では,任意のサンプリング(サンプリング行列を含む)の問題を1つのモデルで解くために,COAST(Arbitrary-Sampling neTwork)を提案する。
COASTは1つのモデルで任意のサンプリング行列を処理でき、高速で最先端のパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-07-15T10:05:00Z) - Decision-based Universal Adversarial Attack [55.76371274622313]
ブラックボックス設定では、現在の普遍的敵攻撃法は代用モデルを用いて摂動を生成する。
効率的な決定に基づくユニバーサルアタック(DUAttack)を提案する。
DUAttackの有効性は、他の最先端攻撃との比較によって検証される。
論文 参考訳(メタデータ) (2020-09-15T12:49:03Z) - Defense against Adversarial Attacks in NLP via Dirichlet Neighborhood
Ensemble [163.3333439344695]
Dirichlet Neighborhood Ensemble (DNE) は、ロバストモデルを用いて置換攻撃を防御するランダムな平滑化手法である。
DNEは、単語とその同義語で区切られた凸殻から入力文中の各単語の埋め込みベクトルをサンプリングして仮想文を生成し、訓練データでそれらを増強する。
我々は,提案手法が最近提案した防衛手法を,異なるネットワークアーキテクチャと複数のデータセット間で有意差で一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-20T18:01:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。