論文の概要: Corrupting Convolution-based Unlearnable Datasets with Pixel-based Image
Transformations
- arxiv url: http://arxiv.org/abs/2311.18403v1
- Date: Thu, 30 Nov 2023 09:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 17:04:40.632745
- Title: Corrupting Convolution-based Unlearnable Datasets with Pixel-based Image
Transformations
- Title(参考訳): Pixelによる画像変換による畳み込みに基づく未学習データセットの破壊
- Authors: Xianlong Wang, Shengshan Hu, Minghui Li, Zhifei Yu, Ziqi Zhou, Leo Yu
Zhang, Hai Jin
- Abstract要約: 学習不能なデータセットは、トレーニングされたモデルの一般化性能を劇的に低下させる。
多くの既存のディフェンス、例えばJPEG圧縮や敵の訓練は、標準制約の付加雑音に基づいてUDを効果的に対抗させる。
Interpolation操作によるランダムな乗算変換を利用して、畳み込み型UDに対する防御を成功させる新しい画像コラプションを提案する。
- 参考スコア(独自算出の注目度): 27.348060443060298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearnable datasets lead to a drastic drop in the generalization performance
of models trained on them by introducing elaborate and imperceptible
perturbations into clean training sets. Many existing defenses, e.g., JPEG
compression and adversarial training, effectively counter UDs based on
norm-constrained additive noise. However, a fire-new type of convolution-based
UDs have been proposed and render existing defenses all ineffective, presenting
a greater challenge to defenders. To address this, we express the
convolution-based unlearnable sample as the result of multiplying a matrix by a
clean sample in a simplified scenario, and formalize the intra-class matrix
inconsistency as $\Theta_{imi}$, inter-class matrix consistency as
$\Theta_{imc}$ to investigate the working mechanism of the convolution-based
UDs. We conjecture that increasing both of these metrics will mitigate the
unlearnability effect. Through validation experiments that commendably support
our hypothesis, we further design a random matrix to boost both $\Theta_{imi}$
and $\Theta_{imc}$, achieving a notable degree of defense effect. Hence, by
building upon and extending these facts, we first propose a brand-new image
COrruption that employs randomly multiplicative transformation via
INterpolation operation to successfully defend against convolution-based UDs.
Our approach leverages global pixel random interpolations, effectively
suppressing the impact of multiplicative noise in convolution-based UDs.
Additionally, we have also designed two new forms of convolution-based UDs, and
find that our defense is the most effective against them.
- Abstract(参考訳): 理解不能なデータセットは、クリーンなトレーニングセットに精巧で不可避な摂動を導入することで、トレーニングされたモデルの一般化性能が大幅に低下する。
多くの既存のディフェンス、例えばJPEG圧縮や敵の訓練は、標準制約の付加雑音に基づいてUDを効果的に対抗させる。
しかし、新しいタイプのコンボリューションベースのudが提案され、既存の防御を全て無効にし、守備側にとって大きな挑戦となった。
これを解決するために、クリーンなシナリオで行列を乗算した結果として畳み込みベースの非学習可能なサンプルを表現し、クラス内行列の不整合を$\Theta_{imi}$、クラス間行列の一貫性を$\Theta_{imc}$として形式化し、畳み込みベースのUDの動作機構を調べる。
これらの指標を両方増やすことで、未解決効果を軽減できると推測する。
仮説を満足して支持する検証実験を通じて、よりランダムな行列を設計し、$\Theta_{imi}$と$\Theta_{imc}$の両方を増強し、顕著な防御効果を達成する。
そこで本研究では,これらの事実を基にして拡張することで,畳み込みに基づくudsに対してランダムに乗算変換を行う新たな画像破壊法を提案する。
提案手法は,大域的画素ランダム補間を利用して,畳み込み型UDにおける乗法ノイズの影響を効果的に抑制する。
さらに,畳み込みに基づくudの新たな形式を2つ設計し,防御が最も効果的であることを確認した。
関連論文リスト
- Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Prototypical Contrastive Learning through Alignment and Uniformity for
Recommendation [6.790779112538357]
提案するアンダーライン・アライメントとアンダーライン・ユニフォーマル性によるインダーライン型コントラスト学習について述べる。
具体的には、まず、原点グラフから異なる拡張点間の整合性を確保するために、潜時空間としてプロトタイプを提案する。
明示的な負の欠如は、インスタンスとプロトタイプ間の整合性損失を直接最適化することで、次元的な崩壊の問題が容易に生じることを意味する。
論文 参考訳(メタデータ) (2024-02-03T08:19:26Z) - Decoupled Prototype Learning for Reliable Test-Time Adaptation [50.779896759106784]
テスト時間適応(TTA)は、推論中にトレーニング済みのソースモデルをターゲットドメインに継続的に適応させるタスクである。
1つの一般的なアプローチは、推定擬似ラベルによるクロスエントロピー損失を伴う微調整モデルである。
本研究は, 各試料の分類誤差を最小化することで, クロスエントロピー損失の脆弱性がラベルノイズを引き起こすことを明らかにした。
本稿では,プロトタイプ中心の損失計算を特徴とする新しいDPL法を提案する。
論文 参考訳(メタデータ) (2024-01-15T03:33:39Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Advancing Adversarial Robustness Through Adversarial Logit Update [10.041289551532804]
敵の訓練と敵の浄化は最も広く認知されている防衛戦略の一つである。
そこで本稿では,新たな原則であるALU(Adversarial Logit Update)を提案する。
本手法は,幅広い敵攻撃に対する最先端手法と比較して,優れた性能を実現する。
論文 参考訳(メタデータ) (2023-08-29T07:13:31Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - Latent Feature Relation Consistency for Adversarial Robustness [80.24334635105829]
深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
論文 参考訳(メタデータ) (2023-03-29T13:50:01Z) - Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Enhanced countering adversarial attacks via input denoising and feature
restoring [15.787838084050957]
ディープニューラルネットワーク(DNN)は、クリーン/オリジンサンプルにおいて知覚できない摂動を伴う敵の例/サンプル(AE)に対して脆弱である。
本稿では,IDFR(Input Denoising and Feature Restoring)による対向攻撃手法の強化について述べる。
提案したIDFRは, 凸船体最適化に基づく拡張型インプットデノイザ (ID) と隠れ型ロスィ特徴復元器 (FR) から構成される。
論文 参考訳(メタデータ) (2021-11-19T07:34:09Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。