論文の概要: Dompteur: Taming Audio Adversarial Examples
- arxiv url: http://arxiv.org/abs/2102.05431v1
- Date: Wed, 10 Feb 2021 13:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 14:23:14.203680
- Title: Dompteur: Taming Audio Adversarial Examples
- Title(参考訳): Dompteur:Taming Audio Adversarialの例
- Authors: Thorsten Eisenhofer, Lea Sch\"onherr, Joel Frank, Lars Speckemeier,
Dorothea Kolossa, Thorsten Holz
- Abstract要約: 敵対的な例では、攻撃者は任意の機械学習システムを操作できる。
本稿では、ASRシステムに対する敵対的事例の存在を受け入れるが、人間の聴取者によって認識されるよう要求する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
- 参考スコア(独自算出の注目度): 28.54699912239861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial examples seem to be inevitable. These specifically crafted inputs
allow attackers to arbitrarily manipulate machine learning systems. Even worse,
they often seem harmless to human observers. In our digital society, this poses
a significant threat. For example, Automatic Speech Recognition (ASR) systems,
which serve as hands-free interfaces to many kinds of systems, can be attacked
with inputs incomprehensible for human listeners. The research community has
unsuccessfully tried several approaches to tackle this problem.
In this paper we propose a different perspective: We accept the presence of
adversarial examples against ASR systems, but we require them to be perceivable
by human listeners. By applying the principles of psychoacoustics, we can
remove semantically irrelevant information from the ASR input and train a model
that resembles human perception more closely. We implement our idea in a tool
named Dompteur and demonstrate that our augmented system, in contrast to an
unmodified baseline, successfully focuses on perceptible ranges of the input
signal. This change forces adversarial examples into the audible range, while
using minimal computational overhead and preserving benign performance. To
evaluate our approach, we construct an adaptive attacker, which actively tries
to avoid our augmentations and demonstrate that adversarial examples from this
attacker remain clearly perceivable. Finally, we substantiate our claims by
performing a hearing test with crowd-sourced human listeners.
- Abstract(参考訳): 逆の例は避けられないようです。
これらの特別に作られた入力により、攻撃者は機械学習システムを任意に操作できる。
さらに悪いことに、彼らはしばしば人間の観察者に無害に見えます。
デジタル社会では、これは重大な脅威となる。
例えば、様々な種類のシステムに対するハンズフリーインタフェースとして機能する自動音声認識(ASR)システムは、人間の聞き手にとって理解不能な入力で攻撃することができる。
研究コミュニティはこの問題に取り組むためにいくつかのアプローチを試したが失敗に終わった。
本稿では、ASRシステムに対する逆例の存在を受け入れるが、人間のリスナーによって認識される必要があるという別の視点を提案する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
このアイデアをdompteurというツールで実装し、修正されていないベースラインとは対照的に、当社の拡張現実が入力信号の知覚可能な範囲にうまく焦点を当てていることを示しました。
この変更は、最小の計算オーバーヘッドと良質な性能を維持しながら、逆の例を可聴範囲に強制する。
私たちのアプローチを評価するために、我々は積極的に私たちの増強を避け、この攻撃者からの敵対的な例が明らかに知覚可能であることを実証しようとする適応攻撃者を構築します。
最後に,クラウドソースのヒューマンリスナーによる補聴テストを行うことにより,我々の主張を裏付ける。
関連論文リスト
- Among Us: Adversarially Robust Collaborative Perception by Consensus [50.73128191202585]
複数のロボットは、シーン(例えば物体)を個人よりも協調的に知覚することができる。
本稿では,未知の攻撃者に対して一般化可能な新しいサンプリングベース防衛戦略であるROBOSACを提案する。
自律運転シナリオにおける協調3次元物体検出の課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-16T17:15:25Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Tubes Among Us: Analog Attack on Automatic Speaker Identification [37.42266692664095]
そこで本研究では,人間は費用と監督をほとんど必要とせず,直接的にアナログ対逆例を生成可能であることを示す。
実生活におけるセキュリティクリティカルな設定での使用に疑問が呈されるなど,他の音響バイオメトリックなタスクにも及んでいる。
論文 参考訳(メタデータ) (2022-02-06T10:33:13Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples [19.433014444284595]
我々は、人間とパイプラインの制御を回避できる新たな攻撃のクラスである、余計な敵の例を紹介した。
この攻撃は、従来の非受容性を目的とした攻撃よりも過剰なオーディオサンプルを生成する。
論文 参考訳(メタデータ) (2021-08-03T16:21:08Z) - Audio Attacks and Defenses against AED Systems - A Practical Study [2.365611283869544]
我々は,ディープラーニングに基づく音声イベント検出システム(AED)を,敵の例による回避攻撃に対して評価する。
本研究では,背景雑音と白色雑音という2つの異なる種類のノイズを用いて,敵対者が検出を避けるために使用する音声対向例を生成する。
音声入力に適用した場合,これらの対策が有効であることを示す。
論文 参考訳(メタデータ) (2021-06-14T13:42:49Z) - Towards Resistant Audio Adversarial Examples [0.0]
生成プロセスの欠陥により、最先端の逆例生成手法が過度な適合を引き起こすことが判明した。
我々は,この欠陥を緩和するアプローチを考案し,異なるオフセットを持つ逆例の生成を改善する方法を見出した。
論文 参考訳(メタデータ) (2020-10-14T16:04:02Z) - Can you hear me $\textit{now}$? Sensitive comparisons of human and
machine perception [3.8580784887142774]
我々は、この非対称性が、人間と機械の知覚の重なり合いを誤って推定する比較をいかに引き起こすかを探る。
5つの実験において、人間の心理物理学文献のタスクデザインを適用し、被験者がそのような音声コマンドを自由に書き起こせない場合でも、他の形態の理解を示せることを示す。
我々は、人間と機械の知覚を比較する際に、このような「敏感なテスト」を採用することを推奨する。
論文 参考訳(メタデータ) (2020-03-27T16:24:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。