論文の概要: The Good, the Bad and the Ugly: Watermarks, Transferable Attacks and Adversarial Defenses
- arxiv url: http://arxiv.org/abs/2410.08864v1
- Date: Fri, 11 Oct 2024 14:44:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 21:35:51.501319
- Title: The Good, the Bad and the Ugly: Watermarks, Transferable Attacks and Adversarial Defenses
- Title(参考訳): The Good, the Bad and the Ugly: Watermarks, Transferable Attacks and Adversarial Defenses
- Authors: Grzegorz Głuch, Berkant Turan, Sai Ganesh Nagarajan, Sebastian Pokutta,
- Abstract要約: バックドアベースの透かしと敵防御の既存の定義を2人のプレイヤー間の対話プロトコルとして定式化し拡張する。
ほぼすべての差別的学習タスクにおいて、少なくとも2つののうちの1つ(透かしまたは敵の防御)が存在している。
転送可能な攻撃の概念を満たすタスクは、暗号プリミティブを意味することを示す。
- 参考スコア(独自算出の注目度): 21.975560789792073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We formalize and extend existing definitions of backdoor-based watermarks and adversarial defenses as interactive protocols between two players. The existence of these schemes is inherently tied to the learning tasks for which they are designed. Our main result shows that for almost every discriminative learning task, at least one of the two -- a watermark or an adversarial defense -- exists. The term "almost every" indicates that we also identify a third, counterintuitive but necessary option, i.e., a scheme we call a transferable attack. By transferable attack, we refer to an efficient algorithm computing queries that look indistinguishable from the data distribution and fool all efficient defenders. To this end, we prove the necessity of a transferable attack via a construction that uses a cryptographic tool called homomorphic encryption. Furthermore, we show that any task that satisfies our notion of a transferable attack implies a cryptographic primitive, thus requiring the underlying task to be computationally complex. These two facts imply an "equivalence" between the existence of transferable attacks and cryptography. Finally, we show that the class of tasks of bounded VC-dimension has an adversarial defense, and a subclass of them has a watermark.
- Abstract(参考訳): 両プレーヤー間の対話プロトコルとして,バックドアベースの透かしと敵防御の既存の定義を定式化し,拡張する。
これらのスキームの存在は、本質的にそれらが設計されている学習タスクと結びついている。
我々の主な結果は、ほぼすべての差別的学習タスクにおいて、少なくとも2つのうちの1つ(透かしまたは敵の防御)が存在していることを示している。
ほぼ全ての」という用語は、第3の直感的だが必要な選択肢、すなわち転送可能な攻撃と呼ばれるスキームも特定することを意味する。
転送可能な攻撃によって、データ分布と区別がつかないようなクエリを効率よく計算し、全ての効率的なディフェンダーを騙す。
この目的のために,同相暗号と呼ばれる暗号ツールを用いた構築による転送可能な攻撃の必要性を実証する。
さらに、転送可能な攻撃の概念を満たすタスクは、暗号化プリミティブを意味し、基礎となるタスクは計算的に複雑である必要があることを示す。
これら2つの事実は、転送可能な攻撃と暗号化の間に「等価」が存在することを示している。
最後に、有界VC次元のタスクのクラスが対角防御を持ち、それらのサブクラスが透かしを持つことを示す。
関連論文リスト
- Backdoor defense, learnability and obfuscation [8.905450847393132]
本研究では,攻撃者と防御者の間のゲームを用いて,バックドアに対する防御性に関する公式な概念を導入する。
私たちの定義は単純で、学習について明示的に言及していませんが、学習容易性と密接な関係があることを示します。
論文 参考訳(メタデータ) (2024-09-04T21:05:42Z) - Improving Adversarial Robustness via Decoupled Visual Representation Masking [65.73203518658224]
本稿では,特徴分布の観点から,ロバストな特徴の2つの新しい特性を強調した。
現状の防衛手法は、上記の2つの問題にうまく対処することを目的としている。
具体的には、分離された視覚的表現マスキングに基づく、シンプルだが効果的な防御法を提案する。
論文 参考訳(メタデータ) (2024-06-16T13:29:41Z) - On the Difficulty of Defending Contrastive Learning against Backdoor
Attacks [58.824074124014224]
バックドア攻撃が、特有のメカニズムによってどのように動作するかを示す。
本研究は, 対照的なバックドア攻撃の特異性に合わせて, 防御の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2023-12-14T15:54:52Z) - Reverse engineering adversarial attacks with fingerprints from
adversarial examples [0.0]
逆例は典型的には、良性入力に追加される摂動を最適化する攻撃アルゴリズムによって生成される。
私たちは、これらの摂動を分類するために、ディープニューラルネットワークを訓練する"火で戦う"アプローチを取っています。
摂動をトレーニングしたResNet50モデルで99.4%の精度を実現した。
論文 参考訳(メタデータ) (2023-01-31T18:59:37Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Excess Capacity and Backdoor Poisoning [11.383869751239166]
バックドアデータ中毒攻撃は、攻撃者がいくつかの透かし、ラベルのついたトレーニング例をトレーニングセットに注入する敵攻撃である。
本稿では,分類問題に対するバックドアデータ中毒攻撃を議論できる形式的理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-02T03:04:38Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。