論文の概要: On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples
- arxiv url: http://arxiv.org/abs/2108.02010v1
- Date: Tue, 3 Aug 2021 16:21:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:24:05.420567
- Title: On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples
- Title(参考訳): 音声機械学習パイプラインの悪用事例への適用性について
- Authors: Adelin Travers, Lorna Licollari, Guanghan Wang, Varun Chandrasekaran,
Adam Dziedzic, David Lie, Nicolas Papernot
- Abstract要約: 我々は、人間とパイプラインの制御を回避できる新たな攻撃のクラスである、余計な敵の例を紹介した。
この攻撃は、従来の非受容性を目的とした攻撃よりも過剰なオーディオサンプルを生成する。
- 参考スコア(独自算出の注目度): 19.433014444284595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) models are known to be vulnerable to adversarial
examples. Applications of ML to voice biometrics authentication are no
exception. Yet, the implications of audio adversarial examples on these
real-world systems remain poorly understood given that most research targets
limited defenders who can only listen to the audio samples. Conflating
detectability of an attack with human perceptibility, research has focused on
methods that aim to produce imperceptible adversarial examples which humans
cannot distinguish from the corresponding benign samples. We argue that this
perspective is coarse for two reasons: 1. Imperceptibility is impossible to
verify; it would require an experimental process that encompasses variations in
listener training, equipment, volume, ear sensitivity, types of background
noise etc, and 2. It disregards pipeline-based detection clues that realistic
defenders leverage. This results in adversarial examples that are ineffective
in the presence of knowledgeable defenders. Thus, an adversary only needs an
audio sample to be plausible to a human. We thus introduce surreptitious
adversarial examples, a new class of attacks that evades both human and
pipeline controls. In the white-box setting, we instantiate this class with a
joint, multi-stage optimization attack. Using an Amazon Mechanical Turk user
study, we show that this attack produces audio samples that are more
surreptitious than previous attacks that aim solely for imperceptibility.
Lastly we show that surreptitious adversarial examples are challenging to
develop in the black-box setting.
- Abstract(参考訳): 機械学習(ML)モデルは、敵の例に弱いことが知られている。
MLの音声生体認証への応用は例外ではない。
しかし、ほとんどの研究は、オーディオサンプルしか聴けない限定的なディフェンダーをターゲットにしているため、現実のシステムにおけるオーディオ敵の例の影響はよく分かっていない。
攻撃の検知可能性と人間の知覚可能性とを融合させる研究は、人間が対応する良性サンプルと区別できない、知覚できない敵の例を作成する方法に焦点を当てている。
この観点は2つの理由により粗いと我々は主張する。
受聴者の訓練、機器、音量、耳の感度、背景雑音の種類、そして2.3のバリエーションを包含する実験プロセスが必要となる。
現実的なディフェンダーが利用するパイプラインベースの検出ヒントは無視する。
この結果は、知識に富んだ守備兵の存在において効果のない敵の例をもたらす。
したがって、敵は、人間に当てはまるような音声サンプルしか必要としない。
そこで本研究では,人間とパイプラインの制御を回避した新たな攻撃方法を提案する。
ホワイトボックス設定では、このクラスを複数ステージの同時最適化攻撃でインスタンス化する。
アマゾン・メカニカル・トルコのユーザー・スタディを用いて、この攻撃は従来の攻撃よりも過酷な音声サンプルを発生させることがわかりました。
最後に、過度な敵の例がブラックボックス設定で開発が難しいことを示します。
関連論文リスト
- Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Rethinking Textual Adversarial Defense for Pre-trained Language Models [79.18455635071817]
文献レビューでは、事前訓練された言語モデル(PrLM)が敵の攻撃に弱いことが示されている。
本稿では、現在の敵攻撃アプローチにより、より自然で知覚不能な敵の例を生成するための新しい指標(異常の度合い)を提案する。
我々は,我々のユニバーサル・ディフェンス・フレームワークが,他の特定のディフェンスと同等あるいはそれ以上のアフターアタック・ディフェンスの精度を達成することを示す。
論文 参考訳(メタデータ) (2022-07-21T07:51:45Z) - Tubes Among Us: Analog Attack on Automatic Speaker Identification [37.42266692664095]
そこで本研究では,人間は費用と監督をほとんど必要とせず,直接的にアナログ対逆例を生成可能であることを示す。
実生活におけるセキュリティクリティカルな設定での使用に疑問が呈されるなど,他の音響バイオメトリックなタスクにも及んでいる。
論文 参考訳(メタデータ) (2022-02-06T10:33:13Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Improving the Adversarial Robustness for Speaker Verification by Self-Supervised Learning [95.60856995067083]
この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。
本研究の目的は,1) 対向摂動浄化と2) 対向摂動検出の2つの視点から対向防御を行うことである。
実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。
論文 参考訳(メタデータ) (2021-06-01T07:10:54Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Dompteur: Taming Audio Adversarial Examples [28.54699912239861]
敵対的な例では、攻撃者は任意の機械学習システムを操作できる。
本稿では、ASRシステムに対する敵対的事例の存在を受け入れるが、人間の聴取者によって認識されるよう要求する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
論文 参考訳(メタデータ) (2021-02-10T13:53:32Z) - On the human evaluation of audio adversarial examples [1.7006003864727404]
逆の例は、意図的に摂動して、気づかれずに間違った予測を生成する入力である。
提案した対向的摂動戦略のばかばかしさは、摂動が検出できない場合にのみ有用である。
コンベンションで使用されるメトリクスは、音声領域における敵対的事例の知覚的類似性の信頼できる尺度ではないことを実証する。
論文 参考訳(メタデータ) (2020-01-23T10:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。