論文の概要: Can You Hear It? Backdoor Attacks via Ultrasonic Triggers
- arxiv url: http://arxiv.org/abs/2107.14569v1
- Date: Fri, 30 Jul 2021 12:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 15:51:29.380572
- Title: Can You Hear It? Backdoor Attacks via Ultrasonic Triggers
- Title(参考訳): 聞こえますか?
超音波トリガーによるバックドア攻撃
- Authors: Stefanos Koffas, Jing Xu, Mauro Conti, Stjepan Picek
- Abstract要約: 本研究では,自動音声認識システムへのバックドア攻撃の選択肢について検討する。
以上の結果から, 毒性データの1%未満は, バックドア攻撃の実施に十分であり, 100%攻撃成功率に達することが示唆された。
- 参考スコア(独自算出の注目度): 31.147899305987934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks represent a powerful option for many real-world
applications due to their ability to model even complex data relations.
However, such neural networks can also be prohibitively expensive to train,
making it common to either outsource the training process to third parties or
use pretrained neural networks. Unfortunately, such practices make neural
networks vulnerable to various attacks, where one attack is the backdoor
attack. In such an attack, the third party training the model may maliciously
inject hidden behaviors into the model. Still, if a particular input (called
trigger) is fed into a neural network, the network will respond with a wrong
result.
In this work, we explore the option of backdoor attacks to automatic speech
recognition systems where we inject inaudible triggers. By doing so, we make
the backdoor attack challenging to detect for legitimate users, and thus,
potentially more dangerous. We conduct experiments on two versions of datasets
and three neural networks and explore the performance of our attack concerning
the duration, position, and type of the trigger. Our results indicate that less
than 1% of poisoned data is sufficient to deploy a backdoor attack and reach a
100% attack success rate. What is more, while the trigger is inaudible, making
it without limitations with respect to the duration of the signal, we observed
that even short, non-continuous triggers result in highly successful attacks.
- Abstract(参考訳): 深層ニューラルネットワークは、複雑なデータ関係をモデル化する能力があるため、多くの現実世界アプリケーションにとって強力な選択肢である。
しかし、そのようなニューラルネットワークは、トレーニングに非常に費用がかかるため、トレーニングプロセスを第三者にアウトソースするか、トレーニング済みのニューラルネットワークを使用するのが一般的である。
残念なことに、そのようなプラクティスは、ニューラルネットワークをバックドア攻撃であるさまざまな攻撃に対して脆弱にする。
このような攻撃において、モデルを訓練する第三者は、悪意を持ってモデルに隠れた振る舞いを注入する可能性がある。
それでも、特定の入力(トリガーと呼ばれる)がニューラルネットワークに供給されると、ネットワークは間違った結果に応答する。
本研究では,無聴トリガーを注入する音声認識システムに対するバックドア攻撃の選択肢について検討する。
そうすることで、バックドア攻撃を正当なユーザの検出に困難にし、潜在的により危険なものにします。
我々は,データセットと3つのニューラルネットワークの2つのバージョンについて実験を行い,トリガーの持続時間,位置,タイプに関する攻撃性能について検討する。
結果から,裏口攻撃を展開し,100%攻撃成功率に達するには1%未満のデータが十分であることが示唆された。
さらに、トリガーは可聴性がなく、信号の持続時間に関して制限がないが、短い非連続的なトリガーであっても、非常に成功した攻撃が引き起こされることを観測した。
関連論文リスト
- DeepBaR: Fault Backdoor Attack on Deep Neural Network Layers [0.0]
私たちは、ニューラルネットワークにバックドアを埋め込む新しいアプローチであるDeepBaRを紹介します。
私たちは3つの一般的な畳み込みニューラルネットワークアーキテクチャを攻撃し、DeepBaR攻撃が最大98.30%の成功率を示す。
論文 参考訳(メタデータ) (2024-07-30T22:14:47Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Verifying Neural Networks Against Backdoor Attacks [7.5033553032683855]
特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
論文 参考訳(メタデータ) (2022-05-14T07:25:54Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Don't Trigger Me! A Triggerless Backdoor Attack Against Deep Neural
Networks [22.28270345106827]
現在の最先端のバックドア攻撃では、ターゲットモデルがバックドアをアクティベートするために入力を変更する必要がある。
このトリガーは物理世界でのバックドア攻撃の難易度を高めるだけでなく、複数の防御機構によって容易に検出できる。
我々は、バックドアをトリガーする入力を変更する必要のない、ディープニューラルネットワークに対する最初のトリガーレスバックドア攻撃を示す。
論文 参考訳(メタデータ) (2020-10-07T09:01:39Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。