論文の概要: One-Index Vector Quantization Based Adversarial Attack on Image Classification
- arxiv url: http://arxiv.org/abs/2409.01282v1
- Date: Mon, 2 Sep 2024 14:25:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 06:37:11.046573
- Title: One-Index Vector Quantization Based Adversarial Attack on Image Classification
- Title(参考訳): 1次元ベクトル量子化に基づく画像分類に基づく逆攻撃
- Authors: Haiju Fan, Xiaona Qin, Shuang Chen, Hubert P. H. Shum, Ming Li,
- Abstract要約: 本稿では,VQ領域における新たなワンインデックス攻撃法を提案する。
ワンインデックス攻撃方法は、圧縮されたデータストリーム内の単一のインデックスを変更して、圧縮された画像が誤って分類されるようにする。
平均して、CIFAR-10とFashion MNISTの画像の55.9%と77.4%が攻撃に成功している。
- 参考スコア(独自算出の注目度): 12.562913339672473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To improve storage and transmission, images are generally compressed. Vector quantization (VQ) is a popular compression method as it has a high compression ratio that suppresses other compression techniques. Despite this, existing adversarial attack methods on image classification are mostly performed in the pixel domain with few exceptions in the compressed domain, making them less applicable in real-world scenarios. In this paper, we propose a novel one-index attack method in the VQ domain to generate adversarial images by a differential evolution algorithm, successfully resulting in image misclassification in victim models. The one-index attack method modifies a single index in the compressed data stream so that the decompressed image is misclassified. It only needs to modify a single VQ index to realize an attack, which limits the number of perturbed indexes. The proposed method belongs to a semi-black-box attack, which is more in line with the actual attack scenario. We apply our method to attack three popular image classification models, i.e., Resnet, NIN, and VGG16. On average, 55.9% and 77.4% of the images in CIFAR-10 and Fashion MNIST, respectively, are successfully attacked, with a high level of misclassification confidence and a low level of image perturbation.
- Abstract(参考訳): ストレージと送信を改善するため、画像は一般的に圧縮される。
ベクトル量子化(VQ)は圧縮率の高い圧縮法であり、他の圧縮手法を抑圧する。
これにもかかわらず、画像分類における既存の敵対的攻撃法は、圧縮された領域ではほとんど例外なくピクセル領域で実行されており、現実のシナリオでは適用できない。
本稿では,VQ領域における新たなワンインデックス攻撃手法を提案する。
ワンインデックス攻撃方法は、圧縮されたデータストリーム内の単一のインデックスを変更して、圧縮された画像が誤って分類されるようにする。
攻撃を実現するには単一のVQインデックスを変更するだけでよい。
提案手法は,実際の攻撃シナリオと一致した半ブラックボックス攻撃に属する。
本稿では,Resnet,NIN,VGG16の3つの画像分類モデルに対して,本手法を適用した。
CIFAR-10 と Fashion MNIST の画像の 55.9% と 77.4% はそれぞれ、高いレベルの誤分類信頼性と低いレベルの画像摂動で攻撃に成功している。
関連論文リスト
- A Training-Free Defense Framework for Robust Learned Image Compression [48.41990144764295]
本研究では,学習した画像圧縮モデルの敵攻撃に対する堅牢性について検討する。
簡単な画像変換関数をベースとした無訓練防御手法を提案する。
論文 参考訳(メタデータ) (2024-01-22T12:50:21Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Backdoor Attacks Against Deep Image Compression via Adaptive Frequency
Trigger [106.10954454667757]
本稿では,学習画像圧縮モデルに対する複数のトリガーを用いたバックドアアタックを提案する。
既存の圧縮システムや標準で広く使われている離散コサイン変換(DCT)に動機付けられ,周波数ベースのトリガーインジェクションモデルを提案する。
論文 参考訳(メタデータ) (2023-02-28T15:39:31Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Adversarial examples by perturbing high-level features in intermediate
decoder layers [0.0]
画素を摂動する代わりに、入力画像のエンコーダ-デコーダ表現とデコーダの中間層を摂動する。
我々の摂動は、より長いくちばしや緑のくちばしのような意味的な意味を持っている。
本手法は,敵の攻撃に対して,敵の訓練に基づく防御技術が脆弱であることを示す。
論文 参考訳(メタデータ) (2021-10-14T07:08:15Z) - Countering Adversarial Examples: Combining Input Transformation and
Noisy Training [15.561916630351947]
敵の例は、セキュリティに敏感な画像認識タスクに脅威をもたらす。
従来のJPEG圧縮はこれらの攻撃を防御するには不十分だが、画像の良さに突然の精度低下を引き起こす可能性がある。
我々は従来のJPEG圧縮アルゴリズムを改良し、NNにとってより好ましいものにしている。
論文 参考訳(メタデータ) (2021-06-25T02:46:52Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。