論文の概要: Pipe Overflow: Smashing Voice Authentication for Fun and Profit
- arxiv url: http://arxiv.org/abs/2202.02751v1
- Date: Sun, 6 Feb 2022 10:33:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 10:18:23.960210
- Title: Pipe Overflow: Smashing Voice Authentication for Fun and Profit
- Title(参考訳): pipe overflow: 楽しさと利益のために音声認証を壊す
- Authors: Shimaa Ahmed, Yash Wani, Ali Shahin Shamsabadi, Mohammad Yaghini, Ilia
Shumailov, Nicolas Papernot, Kassem Fawaz
- Abstract要約: そこで本研究では,人間は費用と監督をほとんど必要とせず,直接的にアナログ対逆例を生成可能であることを示す。
実生活におけるセキュリティクリティカルな設定での使用に疑問が呈されるなど,他の音響バイオメトリックなタスクにも及んでいる。
- 参考スコア(独自算出の注目度): 37.42266692664095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent years have seen a surge of popularity of acoustics-enabled personal
devices powered by machine learning. Yet, machine learning has proven to be
vulnerable to adversarial examples. Large number of modern systems protect
themselves against such attacks by targeting the artificiality, i.e., they
deploy mechanisms to detect the lack of human involvement in generating the
adversarial examples. However, these defenses implicitly assume that humans are
incapable of producing meaningful and targeted adversarial examples. In this
paper, we show that this base assumption is wrong. In particular, we
demonstrate that for tasks like speaker identification, a human is capable of
producing analog adversarial examples directly with little cost and
supervision: by simply speaking through a tube, an adversary reliably
impersonates other speakers in eyes of ML models for speaker identification.
Our findings extend to a range of other acoustic-biometric tasks such as
liveness, bringing into question their use in security-critical settings in
real life, such as phone banking.
- Abstract(参考訳): 近年、機械学習を利用した音響対応パーソナルデバイスの人気が高まっている。
しかし、機械学習は敵の例に弱いことが証明されている。
現代のシステムの多くは、人為性を標的にすることで、敵の例を生成するための人間の関与の欠如を検出するメカニズムを配置することで、このような攻撃から身を守る。
しかし、これらの防御は、人間が有意義で標的を絞った敵の例を生産できないと暗黙的に仮定している。
本稿では,この仮定が間違っていることを示す。
特に、話者識別のようなタスクでは、人間が直接、コストと監督の少ないアナログの敵の例を生成できることを実証する: 単にチューブを通して話すことで、相手は話者識別のためのMLモデルの目で、他の話者を確実に特定することができる。
本研究は,携帯電話バンキングなどの実生活におけるセキュリティクリティカルな環境での利用に疑問を呈する,livenessなどの他の音響バイオメトリックタスクにも及んでいる。
関連論文リスト
- The defender's perspective on automatic speaker verification: An
overview [87.83259209657292]
自動話者検証(ASV)の信頼性は、スプーフィング攻撃の出現によって損なわれている。
本研究の目的は、これらの攻撃に対して使用される防御方法について、徹底的かつ体系的に概説することである。
論文 参考訳(メタデータ) (2023-05-22T08:01:59Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - On the Exploitability of Audio Machine Learning Pipelines to
Surreptitious Adversarial Examples [19.433014444284595]
我々は、人間とパイプラインの制御を回避できる新たな攻撃のクラスである、余計な敵の例を紹介した。
この攻撃は、従来の非受容性を目的とした攻撃よりも過剰なオーディオサンプルを生成する。
論文 参考訳(メタデータ) (2021-08-03T16:21:08Z) - Dompteur: Taming Audio Adversarial Examples [28.54699912239861]
敵対的な例では、攻撃者は任意の機械学習システムを操作できる。
本稿では、ASRシステムに対する敵対的事例の存在を受け入れるが、人間の聴取者によって認識されるよう要求する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
論文 参考訳(メタデータ) (2021-02-10T13:53:32Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Adversarial Attacks on Deep Learning Systems for User Identification
based on Motion Sensors [24.182791316595576]
本研究では,モーションセンサ信号に基づく明示的認証のための深層学習手法に焦点を当てた。
このシナリオでは、攻撃者は不正アクセスを得るために敵の例を作ることができる。
私たちの知る限りでは、機械学習モデルに対する敵攻撃の影響の定量化を目的とした最初の研究である。
論文 参考訳(メタデータ) (2020-09-02T14:35:05Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - SoK: The Faults in our ASRs: An Overview of Attacks against Automatic
Speech Recognition and Speaker Identification Systems [28.635467696564703]
音声と話者システムのエンドツーエンドアーキテクチャは、画像空間のそれとはかなり異なる攻撃と防御を行うことを示す。
そして、これらのモデルに対する攻撃はほとんど普遍的に転送できないことを実験的に実証した。
論文 参考訳(メタデータ) (2020-07-13T18:52:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。