論文の概要: Enhanced Security against Adversarial Examples Using a Random Ensemble
of Encrypted Vision Transformer Models
- arxiv url: http://arxiv.org/abs/2307.13985v1
- Date: Wed, 26 Jul 2023 06:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 13:29:49.389270
- Title: Enhanced Security against Adversarial Examples Using a Random Ensemble
of Encrypted Vision Transformer Models
- Title(参考訳): 暗号化された視覚変換器モデルのランダムアンサンブルを用いた敵に対するセキュリティ強化
- Authors: Ryota Iijima, Miki Tanaka, Sayaka Shiota, Hitoshi Kiya
- Abstract要約: ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
- 参考スコア(独自算出の注目度): 12.29209267739635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are well known to be vulnerable to adversarial
examples (AEs). In addition, AEs have adversarial transferability, which means
AEs generated for a source model can fool another black-box model (target
model) with a non-trivial probability. In previous studies, it was confirmed
that the vision transformer (ViT) is more robust against the property of
adversarial transferability than convolutional neural network (CNN) models such
as ConvMixer, and moreover encrypted ViT is more robust than ViT without any
encryption. In this article, we propose a random ensemble of encrypted ViT
models to achieve much more robust models. In experiments, the proposed scheme
is verified to be more robust against not only black-box attacks but also
white-box ones than convention methods.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
さらに、AEは逆転性を持ち、つまりソースモデルのために生成されたAEは、非自明な確率で別のブラックボックスモデル(ターゲットモデル)を騙すことができる。
従来の研究では、ビジョントランスフォーマー(ViT)は、ConvMixerのような畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢であることが確認されており、暗号化されたViTは暗号化なしではViTよりも堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
実験では,提案手法は従来手法よりもブラックボックス攻撃だけでなくホワイトボックス攻撃に対しても堅牢であることが確認された。
関連論文リスト
- Downstream Transfer Attack: Adversarial Attacks on Downstream Models with Pre-trained Vision Transformers [95.22517830759193]
本稿では、事前訓練されたViTモデルから下流タスクへのこのような逆の脆弱性の伝達可能性について検討する。
DTAは攻撃成功率(ASR)が90%を超え、既存の手法をはるかに上回っていることを示す。
論文 参考訳(メタデータ) (2024-08-03T08:07:03Z) - A Random Ensemble of Encrypted Vision Transformers for Adversarially
Robust Defense [6.476298483207895]
ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
ホワイトボックス攻撃とブラックボックス攻撃の双方に対してロバスト性を高めるために,暗号化されたモデルのランダムアンサンブルである視覚変換器(ViT)を用いた新しい手法を提案する。
実験では, 画像分類作業において, ホワイトボックス攻撃だけでなくブラックボックス攻撃に対しても頑健であることが実証された。
論文 参考訳(メタデータ) (2024-02-11T12:35:28Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - A Random Ensemble of Encrypted models for Enhancing Robustness against
Adversarial Examples [6.476298483207895]
ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
論文 参考訳(メタデータ) (2024-01-05T04:43:14Z) - On the Adversarial Transferability of ConvMixer Models [16.31814570942924]
本稿では,ConvMixer を含むモデル間の逆転送性について初めて検討する。
画像分類実験では、ConvMixerは逆転写性に弱いことが確認された。
論文 参考訳(メタデータ) (2022-09-19T02:51:01Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - Self-Ensembling Vision Transformer (SEViT) for Robust Medical Image
Classification [4.843654097048771]
ビジョントランスフォーマー(ViT)は、医療画像における様々なコンピュータビジョンタスクのために、畳み込みニューラルネットワーク(CNN)を置き換えるために競合している。
近年の研究では、ViTsはそのような攻撃の影響を受けやすく、攻撃下での大幅な性能劣化が報告されている。
本稿では,対戦型攻撃の存在下でのViTの堅牢性を高めるための,新たな自己認識手法を提案する。
論文 参考訳(メタデータ) (2022-08-04T19:02:24Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - On Improving Adversarial Transferability of Vision Transformers [97.17154635766578]
視覚変換器(ViT)は、入力画像を、自己注意によるパッチのシーケンスとして処理する。
本稿では,ViTモデルの対角的特徴空間とその伝達性について検討する。
本稿では,ViTモデルのアーキテクチャに特有な2つの新しい戦略を紹介する。
論文 参考訳(メタデータ) (2021-06-08T08:20:38Z) - On the Adversarial Robustness of Visual Transformers [129.29523847765952]
本研究は、視覚変換器(ViT)の対逆的摂動に対する堅牢性に関する最初の包括的な研究を提供する。
さまざまなホワイトボックスとトランスファーアタック設定でテストされた ViT は、畳み込みニューラルネットワーク (CNN) と比較して、より優れた敵対的堅牢性を持っています。
論文 参考訳(メタデータ) (2021-03-29T14:48:24Z) - Defense for Black-box Attacks on Anti-spoofing Models by Self-Supervised
Learning [71.17774313301753]
本研究では,自己指導型高水準表現の堅牢性について,敵攻撃に対する防御に利用して検討する。
ASVspoof 2019データセットの実験結果は、Mockingjayによって抽出されたハイレベルな表現が、敵の例の転送可能性を妨げることを示した。
論文 参考訳(メタデータ) (2020-06-05T03:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。