論文の概要: FlowMur: A Stealthy and Practical Audio Backdoor Attack with Limited
Knowledge
- arxiv url: http://arxiv.org/abs/2312.09665v1
- Date: Fri, 15 Dec 2023 10:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:30:12.454125
- Title: FlowMur: A Stealthy and Practical Audio Backdoor Attack with Limited
Knowledge
- Title(参考訳): FlowMur: 限られた知識を持つステルスで実用的なオーディオバックドアアタック
- Authors: Jiahe Lan, Jie Wang, Baochen Yan, Zheng Yan, and Elisa Bertino
- Abstract要約: FlowMurはステルスで実用的なオーディオバックドア攻撃で、限られた知識で起動できる。
2つのデータセットで実施された実験は、FlowMurがデジタルと物理の両方で高い攻撃性能を達成することを示した。
- 参考スコア(独自算出の注目度): 13.43804949744336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Speech recognition systems driven by DNNs have revolutionized human-computer
interaction through voice interfaces, which significantly facilitate our daily
lives. However, the growing popularity of these systems also raises special
concerns on their security, particularly regarding backdoor attacks. A backdoor
attack inserts one or more hidden backdoors into a DNN model during its
training process, such that it does not affect the model's performance on
benign inputs, but forces the model to produce an adversary-desired output if a
specific trigger is present in the model input. Despite the initial success of
current audio backdoor attacks, they suffer from the following limitations: (i)
Most of them require sufficient knowledge, which limits their widespread
adoption. (ii) They are not stealthy enough, thus easy to be detected by
humans. (iii) Most of them cannot attack live speech, reducing their
practicality. To address these problems, in this paper, we propose FlowMur, a
stealthy and practical audio backdoor attack that can be launched with limited
knowledge. FlowMur constructs an auxiliary dataset and a surrogate model to
augment adversary knowledge. To achieve dynamicity, it formulates trigger
generation as an optimization problem and optimizes the trigger over different
attachment positions. To enhance stealthiness, we propose an adaptive data
poisoning method according to Signal-to-Noise Ratio (SNR). Furthermore, ambient
noise is incorporated into the process of trigger generation and data poisoning
to make FlowMur robust to ambient noise and improve its practicality. Extensive
experiments conducted on two datasets demonstrate that FlowMur achieves high
attack performance in both digital and physical settings while remaining
resilient to state-of-the-art defenses. In particular, a human study confirms
that triggers generated by FlowMur are not easily detected by participants.
- Abstract(参考訳): dnnが駆動する音声認識システムは、音声インターフェースを通じて人間とコンピュータのインタラクションに革命をもたらした。
しかし、これらのシステムの人気が高まり、特にバックドア攻撃に対するセキュリティに対する懸念も高まっている。
バックドア攻撃は、トレーニングプロセス中に1つ以上の隠れたバックドアをDNNモデルに挿入し、良性入力に対するモデルの性能に影響を与えないようにするが、特定のトリガがモデル入力に存在する場合、モデルに敵意の出力を生成するように強制する。
現在の音声バックドア攻撃の成功にもかかわらず、以下の制限に苦しむ。
(i)そのほとんどが十分な知識を必要とし、普及を制限している。
(ii)十分にステルス性がないため、人間によって容易に検出できる。
(iii)ほとんどは実話に攻撃できず、実用性が低下する。
この問題に対処するため,本稿では,限定的な知識で起動可能な,ステルスで実用的なオーディオバックドア攻撃であるflowmurを提案する。
FlowMurは、補助的なデータセットと代理モデルを構築し、敵の知識を拡張する。
動的性を達成するため、トリガー生成を最適化問題として定式化し、異なるアタッチメント位置に対してトリガーを最適化する。
ステルス性を高めるため,Signal-to-Noise Ratio (SNR) に基づく適応データ中毒法を提案する。
さらに、環境騒音をトリガ生成とデータ中毒のプロセスに取り入れ、環境騒音に対してflowmurを堅牢にし、実用性を向上させる。
2つのデータセットで実施された大規模な実験により、FlowMurは、最先端の防御に耐性を維持しながら、デジタルおよび物理的な設定の両方で高い攻撃性能を達成することが示された。
特に人間の研究では、FlowMurによって生成されたトリガーが参加者によって容易に検出されないことが確認されている。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Turning Generative Models Degenerate: The Power of Data Poisoning Attacks [10.36389246679405]
悪意のある俳優は、毒殺攻撃を通じてバックドアを導入し、望ましくないアウトプットを発生させることができる。
本研究では,大規模言語モデルの微調整段階を標的とした多種多様な中毒技術について,PEFT(Efficient Fine-Tuning)法を用いて検討する。
本研究は,PEFTによる微調整中にNLGタスクを標的とした毒殺攻撃を理解するための最初の体系的アプローチである。
論文 参考訳(メタデータ) (2024-07-17T03:02:15Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Living-off-The-Land Reverse-Shell Detection by Informed Data
Augmentation [16.06998078829495]
リビング・オブ・ザ・ランド(LOTL)の攻撃手法は、正当なアプリケーションによって実行されるコマンドの連鎖を通じて悪意ある行為を犯すことに依存している。
LOTL技術は、共通の正当な活動によって生成されたイベントストリームの中によく隠されている。
正規ログ内でのLOTL悪意のある活動の促進と多様化を目的とした拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - The last Dance : Robust backdoor attack via diffusion models and bayesian approach [0.0]
拡散モデルは、前方と後方の学習原理に基づいて訓練された最先端のディープラーニング生成モデルである。
人工知能研究の世界で人気のあるフレームワークであるHugging Faceから派生したオーディオトランスフォーマーに対するバックドア攻撃の可能性を示す。
論文 参考訳(メタデータ) (2024-02-05T18:00:07Z) - The Art of Deception: Robust Backdoor Attack using Dynamic Stacking of Triggers [0.0]
近年の研究では、聴覚バックドアが特定の変更を開始メカニズムとして用いる可能性があることが判明している。
DynamicTriggerは動的バックドアアタックを実行するための方法論として紹介されている。
動的音源トリガーによる変動信号のサンプリング率と話者の身元をマスキングすることにより、音声認識システムを欺くことができる。
論文 参考訳(メタデータ) (2024-01-03T04:31:59Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Leveraging Diffusion-Based Image Variations for Robust Training on
Poisoned Data [26.551317580666353]
バックドア攻撃は、ニューラルネットワークをトレーニングする上で深刻なセキュリティ上の脅威となる。
本稿では,近年の拡散モデルのパワーを生かして,潜在的に有毒なデータセットのモデルトレーニングを可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-10T07:25:06Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。