論文の概要: On the human evaluation of audio adversarial examples
- arxiv url: http://arxiv.org/abs/2001.08444v2
- Date: Fri, 12 Feb 2021 14:27:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-07 12:54:22.798343
- Title: On the human evaluation of audio adversarial examples
- Title(参考訳): 音声反対例の人間による評価について
- Authors: Jon Vadillo and Roberto Santana
- Abstract要約: 逆の例は、意図的に摂動して、気づかれずに間違った予測を生成する入力である。
提案した対向的摂動戦略のばかばかしさは、摂動が検出できない場合にのみ有用である。
コンベンションで使用されるメトリクスは、音声領域における敵対的事例の知覚的類似性の信頼できる尺度ではないことを実証する。
- 参考スコア(独自算出の注目度): 1.7006003864727404
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human-machine interaction is increasingly dependent on speech communication.
Machine Learning models are usually applied to interpret human speech commands.
However, these models can be fooled by adversarial examples, which are inputs
intentionally perturbed to produce a wrong prediction without being noticed.
While much research has been focused on developing new techniques to generate
adversarial perturbations, less attention has been given to aspects that
determine whether and how the perturbations are noticed by humans. This
question is relevant since high fooling rates of proposed adversarial
perturbation strategies are only valuable if the perturbations are not
detectable. In this paper we investigate to which extent the distortion metrics
proposed in the literature for audio adversarial examples, and which are
commonly applied to evaluate the effectiveness of methods for generating these
attacks, are a reliable measure of the human perception of the perturbations.
Using an analytical framework, and an experiment in which 18 subjects evaluate
audio adversarial examples, we demonstrate that the metrics employed by
convention are not a reliable measure of the perceptual similarity of
adversarial examples in the audio domain.
- Abstract(参考訳): 人間と機械の相互作用はますます音声コミュニケーションに依存している。
機械学習モデルは通常、人間の音声コマンドの解釈に適用される。
しかし、これらのモデルは、故意に摂動して間違った予測を生じさせるような、敵対的な例によって騙される可能性がある。
敵の摂動を発生させる新しい技術の開発に多くの研究が注がれているが、人間の摂動にどう気付くかを決定する側面には注意が向けられていない。
この問題は, 摂動が検出できない場合にのみ, 提案した対向摂動戦略の騙し率が高いことが問題となる。
本稿では,これらの攻撃を発生させる手法の有効性を評価するために一般的に適用されている,音声対向例の文献における歪み指標が,人間の摂動に対する認識の信頼性を測る尺度であることを示す。
分析的枠組みと18名の被験者が対向例を評価する実験を用いて,規則が採用する指標は,音声領域における対向例の知覚的類似性の信頼性の尺度ではないことを示す。
関連論文リスト
- A Knowledge-guided Adversarial Defense for Resisting Malicious Visual Manipulation [93.28532038721816]
視覚的操作の悪意ある応用は、多くの分野でユーザーのセキュリティと評判に深刻な脅威をもたらしている。
本稿では,悪質な操作モデルを積極的に強制し,意味論的に混乱したサンプルを出力するために,知識誘導型敵防衛(KGAD)を提案する。
論文 参考訳(メタデータ) (2025-04-11T10:18:13Z) - On the Effect of Adversarial Training Against Invariance-based
Adversarial Examples [0.23624125155742057]
この研究は、畳み込みニューラルネットワーク(CNN)における不変性に基づく逆トレーニングの効果に対処する。
本研究は,非分散型および摂動型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型対向型を適用した場合,連続的でなく連続的に実施すべきであることを示す。
論文 参考訳(メタデータ) (2023-02-16T12:35:37Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples [19.433014444284595]
我々は、人間とパイプラインの制御を回避できる新たな攻撃のクラスである、余計な敵の例を紹介した。
この攻撃は、従来の非受容性を目的とした攻撃よりも過剰なオーディオサンプルを生成する。
論文 参考訳(メタデータ) (2021-08-03T16:21:08Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Towards Defending against Adversarial Examples via Attack-Invariant
Features [147.85346057241605]
ディープニューラルネットワーク(DNN)は敵の雑音に弱い。
敵の強靭性は、敵の例を利用して改善することができる。
目に見えない種類の敵の例に基づいて訓練されたモデルは、一般的に、目に見えない種類の敵の例にうまく一般化できない。
論文 参考訳(メタデータ) (2021-06-09T12:49:54Z) - Removing Adversarial Noise in Class Activation Feature Space [160.78488162713498]
クラスアクティベーション機能空間において,自己監視型対人訓練機構を実装することにより,対人雑音の除去を提案する。
クラスアクティベーション機能空間における敵対例と自然な例の間の距離を最小にするために、デノイジングモデルを訓練する。
経験的評価により, 従来の手法と比較して, 敵対的堅牢性が有意に向上できることが示された。
論文 参考訳(メタデータ) (2021-04-19T10:42:24Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Decoupling entrainment from consistency using deep neural networks [14.823143667165382]
一貫性の効果、すなわち個々のスタイルに固執する話者を孤立させることは、訓練の分析において重要な部分である。
そこで本研究では,話者の発声特徴を,その後の出力予測のコンファウンドとして扱うことを提案する。
既存の2つのニューラルアプローチを用いて、一貫性を制御するエントレインメントの新しい尺度を定義した。
論文 参考訳(メタデータ) (2020-11-03T17:30:05Z) - Metrics and methods for robustness evaluation of neural networks with
generative models [0.07366405857677225]
近年、特にコンピュータビジョンにおいて、研究者たちは回転、明るさの変化、より高レベルな変化などの「自然な」あるいは「意味的な」摂動を発見した。
本稿では,分類器の頑健度を自然な逆数例に測定するための指標と,それらの評価方法を提案する。
論文 参考訳(メタデータ) (2020-03-04T10:58:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。