論文の概要: Everyone Can Attack: Repurpose Lossy Compression as a Natural Backdoor
Attack
- arxiv url: http://arxiv.org/abs/2308.16684v1
- Date: Thu, 31 Aug 2023 12:38:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:35:29.852143
- Title: Everyone Can Attack: Repurpose Lossy Compression as a Natural Backdoor
Attack
- Title(参考訳): 誰でも攻撃できる! 自然のバックドア攻撃の「Lossy Compression」
- Authors: Sze Jue Yang and Quang Nguyen and Chee Seng Chan and Khoa Doan
- Abstract要約: 本稿では,サイレントバックドア攻撃に容易にアクセスできるアルゴリズムを誰でも利用できることを示す。
この攻撃のため、敵は以前の作業で見られたトリガージェネレータを設計する必要はない。
- 参考スコア(独自算出の注目度): 8.545592979518508
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The vulnerabilities to backdoor attacks have recently threatened the
trustworthiness of machine learning models in practical applications.
Conventional wisdom suggests that not everyone can be an attacker since the
process of designing the trigger generation algorithm often involves
significant effort and extensive experimentation to ensure the attack's
stealthiness and effectiveness. Alternatively, this paper shows that there
exists a more severe backdoor threat: anyone can exploit an easily-accessible
algorithm for silent backdoor attacks. Specifically, this attacker can employ
the widely-used lossy image compression from a plethora of compression tools to
effortlessly inject a trigger pattern into an image without leaving any
noticeable trace; i.e., the generated triggers are natural artifacts. One does
not require extensive knowledge to click on the "convert" or "save as" button
while using tools for lossy image compression. Via this attack, the adversary
does not need to design a trigger generator as seen in prior works and only
requires poisoning the data. Empirically, the proposed attack consistently
achieves 100% attack success rate in several benchmark datasets such as MNIST,
CIFAR-10, GTSRB and CelebA. More significantly, the proposed attack can still
achieve almost 100% attack success rate with very small (approximately 10%)
poisoning rates in the clean label setting. The generated trigger of the
proposed attack using one lossy compression algorithm is also transferable
across other related compression algorithms, exacerbating the severity of this
backdoor threat. This work takes another crucial step toward understanding the
extensive risks of backdoor attacks in practice, urging practitioners to
investigate similar attacks and relevant backdoor mitigation methods.
- Abstract(参考訳): バックドア攻撃の脆弱性は最近、実用的なアプリケーションにおける機械学習モデルの信頼性を脅かしている。
トリガー生成アルゴリズムを設計するプロセスには、攻撃のステルス性と有効性を確保するために、かなりの労力と広範囲な実験が必要となることが多いからだ。
あるいは、誰でも簡単にアクセス可能なアルゴリズムを使ってサイレントバックドア攻撃を行うことができるという、より厳しいバックドアの脅威が存在することを示す。
特に、この攻撃者は、多数の圧縮ツールから広く使用されているロスリーな画像圧縮を使用して、目に見える痕跡を残さずに画像にトリガーパターンを無力に注入することができる。
画像圧縮のツールを使いながら"convert"ボタンや"save as"ボタンをクリックするには、広範な知識を必要としない。
この攻撃によって、敵は以前の作業で見られるようにトリガージェネレータを設計する必要はなく、データに毒を盛るのみである。
実験上,提案手法はmnist,cifar-10,gtsrb,celebaなどのベンチマークデータセットにおいて,100%のアタック成功率を達成している。
さらに、提案した攻撃は、クリーンラベル設定で非常に小さな(約10%)中毒率で、ほぼ100%の攻撃成功率を達成することができる。
1つの損失のある圧縮アルゴリズムを用いて提案された攻撃のトリガは、他の関連する圧縮アルゴリズム間で転送可能である。
この研究は、バックドア攻撃の広範囲なリスクを理解するための重要な一歩を踏み出し、実践者に同様の攻撃と関連するバックドア緩和方法を調査するよう促す。
関連論文リスト
- NoiseAttack: An Evasive Sample-Specific Multi-Targeted Backdoor Attack Through White Gaussian Noise [0.19820694575112383]
ディープラーニング開発にサードパーティのデータを使用する場合、バックドア攻撃は重大な脅威となる。
我々は,新しいサンプル特異的なマルチターゲットバックドアアタック,すなわちNossAttackを紹介した。
この作業は、複数のターゲットクラスを生成する目的でビジョンバックドアアタックを起動する、この種の最初のものだ。
論文 参考訳(メタデータ) (2024-09-03T19:24:46Z) - Dual Model Replacement:invisible Multi-target Backdoor Attack based on Federal Learning [21.600003684064706]
本稿では,フェデレート学習に基づくバックドア攻撃手法を設計する。
バックドアトリガの隠蔽を目的としたエンコーダデコーダ構造を備えたトロイジャンガンステガノグラフィーモデルが設計されている。
フェデレート学習に基づく二重モデル置換バックドア攻撃アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-04-22T07:44:02Z) - LOTUS: Evasive and Resilient Backdoor Attacks through Sub-Partitioning [49.174341192722615]
バックドア攻撃は、ディープラーニングアプリケーションに重大なセキュリティ脅威をもたらす。
近年の研究では、特殊な変換機能によって作られたサンプル特異的に見えないトリガーを用いた攻撃が導入されている。
我々は、回避性とレジリエンスの両方に対処するために、新しいバックドアアタックLOTUSを導入する。
論文 参考訳(メタデータ) (2024-03-25T21:01:29Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - Invisible Backdoor Attack with Dynamic Triggers against Person
Re-identification [71.80885227961015]
個人再識別(ReID)は、広範囲の現実世界のアプリケーションで急速に進展しているが、敵攻撃の重大なリスクも生じている。
動的トリガー・インビジブル・バックドア・アタック(DT-IBA)と呼ばれる,ReIDに対する新たなバックドア・アタックを提案する。
本研究は,提案したベンチマークデータセットに対する攻撃の有効性と盗聴性を広範囲に検証し,攻撃に対する防御手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-11-20T10:08:28Z) - Poison Ink: Robust and Invisible Backdoor Attack [122.49388230821654]
我々はポゾン・インクと呼ばれる頑丈で目に見えないバックドア攻撃を提案する。
具体的には、まず、画像構造を標的の中毒領域として利用し、それらを毒インク(情報)で満たしてトリガーパターンを生成する。
既存の一般的なバックドア攻撃方法と比較して、Poison Inkはステルスネスとロバストネスの両方で優れている。
論文 参考訳(メタデータ) (2021-08-05T09:52:49Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。