論文の概要: On the Adversarial Transferability of ConvMixer Models
- arxiv url: http://arxiv.org/abs/2209.08724v1
- Date: Mon, 19 Sep 2022 02:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:04:55.330044
- Title: On the Adversarial Transferability of ConvMixer Models
- Title(参考訳): ConvMixerモデルの逆変換性について
- Authors: Ryota Iijima, Miki Tanaka, Isao Echizen, and Hitoshi Kiya
- Abstract要約: 本稿では,ConvMixer を含むモデル間の逆転送性について初めて検討する。
画像分類実験では、ConvMixerは逆転写性に弱いことが確認された。
- 参考スコア(独自算出の注目度): 16.31814570942924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are well known to be vulnerable to adversarial
examples (AEs). In addition, AEs have adversarial transferability, which means
AEs generated for a source model can fool another black-box model (target
model) with a non-trivial probability. In this paper, we investigate the
property of adversarial transferability between models including ConvMixer,
which is an isotropic network, for the first time. To objectively verify the
property of transferability, the robustness of models is evaluated by using a
benchmark attack method called AutoAttack. In an image classification
experiment, ConvMixer is confirmed to be weak to adversarial transferability.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
さらに、AEは逆転性を持ち、つまりソースモデルのために生成されたAEは、非自明な確率で別のブラックボックスモデル(ターゲットモデル)を騙すことができる。
本稿では,等方性ネットワークであるConvMixerを含むモデル間の逆転送性について,初めて検討する。
転送可能性の特性を客観的に検証するために、AutoAttackと呼ばれるベンチマーク攻撃手法を用いてモデルのロバスト性を評価する。
画像分類実験では、ConvMixerは逆転写性に弱いことが確認された。
関連論文リスト
- A Random Ensemble of Encrypted models for Enhancing Robustness against
Adversarial Examples [6.476298483207895]
ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
論文 参考訳(メタデータ) (2024-01-05T04:43:14Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - An Adaptive Model Ensemble Adversarial Attack for Boosting Adversarial
Transferability [26.39964737311377]
我々はAdaEAと呼ばれる適応型アンサンブル攻撃を提案し、各モデルからの出力の融合を適応的に制御する。
我々は、様々なデータセットに対する既存のアンサンブル攻撃よりも大幅に改善した。
論文 参考訳(メタデータ) (2023-08-05T15:12:36Z) - Enhanced Security against Adversarial Examples Using a Random Ensemble
of Encrypted Vision Transformer Models [12.29209267739635]
ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
論文 参考訳(メタデータ) (2023-07-26T06:50:58Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。