論文の概要: Towards the Transferable Audio Adversarial Attack via Ensemble Methods
- arxiv url: http://arxiv.org/abs/2304.08811v1
- Date: Tue, 18 Apr 2023 08:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:35:18.840918
- Title: Towards the Transferable Audio Adversarial Attack via Ensemble Methods
- Title(参考訳): アンサンブル法によるトランスファー可能なオーディオ・アタックに向けて
- Authors: Feng Guo, Zheng Sun, Yuxuan Chen and Lei Ju
- Abstract要約: 深層学習に基づく音声認識において,敵対的事例(AE)の伝達に影響を及ぼす潜在的な要因について検討する。
その結果, 音声と画像間のAEの転送性には顕著な差があり, 画像の関連性は低いが, 音声認識では逆であることがわかった。
ドロップアウトに基づくアンサンブルアプローチにより,ランダムな勾配アンサンブルと動的勾配重み付けアンサンブルを提案し,アンサンブルがAEsの伝達性に与える影響を評価する。
- 参考スコア(独自算出の注目度): 5.262820533171069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep learning (DL) models have achieved significant progress
in many domains, such as autonomous driving, facial recognition, and speech
recognition. However, the vulnerability of deep learning models to adversarial
attacks has raised serious concerns in the community because of their
insufficient robustness and generalization. Also, transferable attacks have
become a prominent method for black-box attacks. In this work, we explore the
potential factors that impact adversarial examples (AEs) transferability in
DL-based speech recognition. We also discuss the vulnerability of different DL
systems and the irregular nature of decision boundaries. Our results show a
remarkable difference in the transferability of AEs between speech and images,
with the data relevance being low in images but opposite in speech recognition.
Motivated by dropout-based ensemble approaches, we propose random gradient
ensembles and dynamic gradient-weighted ensembles, and we evaluate the impact
of ensembles on the transferability of AEs. The results show that the AEs
created by both approaches are valid for transfer to the black box API.
- Abstract(参考訳): 近年、ディープラーニング(DL)モデルは、自律運転、顔認識、音声認識など多くの分野で大きな進歩を遂げている。
しかし、敵対攻撃に対するディープラーニングモデルの脆弱性は、その頑健さと一般化が不十分なため、コミュニティに深刻な懸念を抱いている。
また、転送可能な攻撃はブラックボックス攻撃の顕著な方法となっている。
本研究では, DLに基づく音声認識において, 敵対的事例(AE)の伝達に影響を及ぼす潜在的な要因について検討する。
また、異なるDLシステムの脆弱性と決定境界の不規則性についても論じる。
その結果, 音声と画像間のAEの転送性には顕著な差があり, 画像の関連性は低いが, 音声認識では逆であることがわかった。
ドロップアウトに基づくアンサンブルアプローチにより,ランダムな勾配アンサンブルと動的勾配重み付けアンサンブルを提案し,アンサンブルがAEの伝達性に与える影響を評価する。
その結果、両方のアプローチで生成されたAEsがブラックボックスAPIへの転送に有効であることが判明した。
関連論文リスト
- Semantic-Aligned Adversarial Evolution Triangle for High-Transferability Vision-Language Attack [51.16384207202798]
視覚言語事前学習モデルは多モーダル逆例(AE)に対して脆弱である
従来のアプローチでは、画像とテキストのペアを拡大して、敵対的なサンプル生成プロセス内での多様性を高めている。
本稿では, 敵の多様性を高めるために, クリーン, ヒストリ, および現在の敵の例からなる敵の進化三角形からのサンプリングを提案する。
論文 参考訳(メタデータ) (2024-11-04T23:07:51Z) - A Systematic Evaluation of Adversarial Attacks against Speech Emotion Recognition Models [6.854732863866882]
音声感情認識(SER)は近年,様々な分野に応用される可能性から,常に注目を集めている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2024-04-29T09:00:32Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Harnessing Perceptual Adversarial Patches for Crowd Counting [92.79051296850405]
群衆のカウントは、物理的な世界の敵の例に弱い。
本稿では,モデル間での知覚的特徴の共有を学習するためのPAP(Perceptual Adrial Patch)生成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:51:39Z) - Towards Resistant Audio Adversarial Examples [0.0]
生成プロセスの欠陥により、最先端の逆例生成手法が過度な適合を引き起こすことが判明した。
我々は,この欠陥を緩和するアプローチを考案し,異なるオフセットを持つ逆例の生成を改善する方法を見出した。
論文 参考訳(メタデータ) (2020-10-14T16:04:02Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。