論文の概要: On the Adversarial Transferability of ConvMixer Models
- arxiv url: http://arxiv.org/abs/2209.08724v1
- Date: Mon, 19 Sep 2022 02:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 19:04:55.330044
- Title: On the Adversarial Transferability of ConvMixer Models
- Title(参考訳): ConvMixerモデルの逆変換性について
- Authors: Ryota Iijima, Miki Tanaka, Isao Echizen, and Hitoshi Kiya
- Abstract要約: 本稿では,ConvMixer を含むモデル間の逆転送性について初めて検討する。
画像分類実験では、ConvMixerは逆転写性に弱いことが確認された。
- 参考スコア(独自算出の注目度): 16.31814570942924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) are well known to be vulnerable to adversarial
examples (AEs). In addition, AEs have adversarial transferability, which means
AEs generated for a source model can fool another black-box model (target
model) with a non-trivial probability. In this paper, we investigate the
property of adversarial transferability between models including ConvMixer,
which is an isotropic network, for the first time. To objectively verify the
property of transferability, the robustness of models is evaluated by using a
benchmark attack method called AutoAttack. In an image classification
experiment, ConvMixer is confirmed to be weak to adversarial transferability.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、敵の例(AE)に弱いことがよく知られている。
さらに、AEは逆転性を持ち、つまりソースモデルのために生成されたAEは、非自明な確率で別のブラックボックスモデル(ターゲットモデル)を騙すことができる。
本稿では,等方性ネットワークであるConvMixerを含むモデル間の逆転送性について,初めて検討する。
転送可能性の特性を客観的に検証するために、AutoAttackと呼ばれるベンチマーク攻撃手法を用いてモデルのロバスト性を評価する。
画像分類実験では、ConvMixerは逆転写性に弱いことが確認された。
関連論文リスト
- Enhancing Adversarial Transferability with Adversarial Weight Tuning [36.09966860069978]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - A Random Ensemble of Encrypted models for Enhancing Robustness against
Adversarial Examples [6.476298483207895]
ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
論文 参考訳(メタデータ) (2024-01-05T04:43:14Z) - Enhanced Security against Adversarial Examples Using a Random Ensemble
of Encrypted Vision Transformer Models [12.29209267739635]
ビジョントランスフォーマー(ViT)は、畳み込みニューラルネットワーク(CNN)モデルよりも、逆転性の性質に対してより堅牢である。
本稿では,より堅牢なモデルを実現するために,暗号化されたViTモデルのランダムアンサンブルを提案する。
論文 参考訳(メタデータ) (2023-07-26T06:50:58Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - On the Transferability of Adversarial Examples between Encrypted Models [20.03508926499504]
敵の堅牢な防御のために暗号化されたモデルの転送可能性について, 初めて検討した。
画像分類実験において、暗号化されたモデルの使用は、AEsに対して堅牢であるだけでなく、AEsの影響を低減することも確認されている。
論文 参考訳(メタデータ) (2022-09-07T08:50:26Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。