論文の概要: A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems?
- arxiv url: http://arxiv.org/abs/2312.06010v2
- Date: Thu, 4 Jan 2024 19:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 12:46:22.703429
- Title: A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems?
- Title(参考訳): AIによる音声攻撃による新興脅威の実態調査:商用音声制御システムはいかに脆弱性があるか?
- Authors: Yuanda Wang, Qiben Yan, Nikolay Ivanov, Xun Chen,
- Abstract要約: AIによる音声攻撃により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
本研究は,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを評価するための試みである。
以上の結果から,商用音声制御システムは既存の脅威に対する耐性を高めることが示唆された。
- 参考スコア(独自算出の注目度): 13.115517847161428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of Artificial Intelligence (AI)-driven audio attacks has revealed new security vulnerabilities in voice control systems. While researchers have introduced a multitude of attack strategies targeting voice control systems (VCS), the continual advancements of VCS have diminished the impact of many such attacks. Recognizing this dynamic landscape, our study endeavors to comprehensively assess the resilience of commercial voice control systems against a spectrum of malicious audio attacks. Through extensive experimentation, we evaluate six prominent attack techniques across a collection of voice control interfaces and devices. Contrary to prevailing narratives, our results suggest that commercial voice control systems exhibit enhanced resistance to existing threats. Particularly, our research highlights the ineffectiveness of white-box attacks in black-box scenarios. Furthermore, the adversaries encounter substantial obstacles in obtaining precise gradient estimations during query-based interactions with commercial systems, such as Apple Siri and Samsung Bixby. Meanwhile, we find that current defense strategies are not completely immune to advanced attacks. Our findings contribute valuable insights for enhancing defense mechanisms in VCS. Through this survey, we aim to raise awareness within the academic community about the security concerns of VCS and advocate for continued research in this crucial area.
- Abstract(参考訳): 人工知能(AI)による音声攻撃の出現により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
研究者は、音声制御システム(VCS)をターゲットにした数多くの攻撃戦略を導入しているが、VCSの継続的な進歩は多くの攻撃の影響を減らした。
本研究は,このダイナミックな景観を認識し,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを包括的に評価する試みである。
広汎な実験を通じて,音声制御インタフェースとデバイス群をまたいだ6つの顕著な攻撃手法を評価する。
一般的な物語とは対照的に,商業音声制御システムでは既存の脅威に対する耐性が向上していることが示唆された。
特に、この研究はブラックボックスのシナリオにおけるホワイトボックス攻撃の非効率性を強調している。
さらに、Apple SiriやSamsung Bixbyといった商用システムとのクエリベースのインタラクション中に、正確な勾配推定を得る上で、敵は大きな障害に直面している。
一方、現在の防衛戦略は先進的な攻撃に対して完全には免疫がない。
本研究は,VCSの防御機構の強化に有用な知見である。
本調査は,VCSのセキュリティ問題に対する学術コミュニティの意識を高め,この重要な領域における継続的な研究を提唱することを目的としている。
関連論文リスト
- Acoustic Cybersecurity: Exploiting Voice-Activated Systems [0.0]
私たちの研究は、AmazonのAlexa、Android、iOS、Cortanaなど、さまざまなプラットフォームにおけるこれらの攻撃の可能性を広げています。
攻撃の成功率はおよそ60%で、遠隔で100フィート以上離れた場所からデバイスを起動できる。
これらの攻撃は重要なインフラを脅かし、多面的な防御戦略の必要性を強調した。
論文 参考訳(メタデータ) (2023-11-23T02:26:11Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - SoK: A Study of the Security on Voice Processing Systems [2.596028864336544]
我々は、音声処理システムに対するユニークな攻撃の配列を特定し、分類する。
現在の最も頻繁に使われている機械学習システムとディープニューラルネットワークは、現代の音声処理システムの中核にある。
論文 参考訳(メタデータ) (2021-12-24T21:47:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Practical Attacks on Voice Spoofing Countermeasures [3.388509725285237]
悪意あるアクターが、音声認証を最も厳格な形でバイパスするために、音声サンプルを効率的に作ることができることを示す。
本研究の結果は,攻撃者の脅威を回避し,現代の音声認証システムのセキュリティに疑問を投げかけるものである。
論文 参考訳(メタデータ) (2021-07-30T14:07:49Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - Detecting Audio Attacks on ASR Systems with Dropout Uncertainty [40.9172128924305]
我々の防衛は、最適化された摂動と周波数マスキングによって生成された攻撃を検出することができることを示す。
我々は、MozillaのCommonVoiceデータセット、UrbanSoundデータセット、およびLibriSpeechデータセットの抜粋に対する防御をテストする。
論文 参考訳(メタデータ) (2020-06-02T19:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。