論文の概要: Acoustic Cybersecurity: Exploiting Voice-Activated Systems
- arxiv url: http://arxiv.org/abs/2312.00039v1
- Date: Thu, 23 Nov 2023 02:26:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:57:32.579106
- Title: Acoustic Cybersecurity: Exploiting Voice-Activated Systems
- Title(参考訳): アコースティックサイバーセキュリティ:音声アクティベートシステムの利用
- Authors: Forrest McKee and David Noever
- Abstract要約: 私たちの研究は、AmazonのAlexa、Android、iOS、Cortanaなど、さまざまなプラットフォームにおけるこれらの攻撃の可能性を広げています。
攻撃の成功率はおよそ60%で、遠隔で100フィート以上離れた場所からデバイスを起動できる。
これらの攻撃は重要なインフラを脅かし、多面的な防御戦略の必要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we investigate the emerging threat of inaudible acoustic
attacks targeting digital voice assistants, a critical concern given their
projected prevalence to exceed the global population by 2024. Our research
extends the feasibility of these attacks across various platforms like Amazon's
Alexa, Android, iOS, and Cortana, revealing significant vulnerabilities in
smart devices. The twelve attack vectors identified include successful
manipulation of smart home devices and automotive systems, potential breaches
in military communication, and challenges in critical infrastructure security.
We quantitatively show that attack success rates hover around 60%, with the
ability to activate devices remotely from over 100 feet away. Additionally,
these attacks threaten critical infrastructure, emphasizing the need for
multifaceted defensive strategies combining acoustic shielding, advanced signal
processing, machine learning, and robust user authentication to mitigate these
risks.
- Abstract(参考訳): 本研究では,2024年までに人口が世界人口を超えると予測されていることから,デジタル音声アシスタントを対象とする不審な音響攻撃の脅威について検討する。
私たちの研究は、AmazonのAlexa、Android、iOS、Cortanaといったさまざまなプラットフォームにおけるこれらの攻撃の可能性を広げ、スマートデバイスの重大な脆弱性を明らかにしています。
特定された12の攻撃ベクターには、スマートホームデバイスと自動車システムの操作の成功、軍事通信の潜在的な侵入、重要なインフラセキュリティの課題が含まれる。
攻撃成功率は60%程度で、100フィート以上離れた場所からリモートでデバイスをアクティベートできることを定量的に示しています。
さらに、これらの攻撃は重要なインフラストラクチャを脅かし、音響シールド、高度な信号処理、マシンラーニング、堅牢なユーザ認証を組み合わせた多面的な防御戦略の必要性を強調している。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Adversarial Agents For Attacking Inaudible Voice Activated Devices [0.0]
本論文は、新しいインターネット・オブ・シングの構成に強化学習を適用した。
音声アクティベートデバイスに対する難聴攻撃の分析では,10点中7.6点のアラーム危険因子が確認された。
2024年までに、この新たな攻撃面は、地球上の人々よりも多くのデジタル音声アシスタントを含んでいるかもしれない。
論文 参考訳(メタデータ) (2023-07-23T02:18:30Z) - NUANCE: Near Ultrasound Attack On Networked Communication Environments [0.0]
本研究では, 近距離超音波トロイの木馬を用いたAmazon Alexa音声サービスにおける難聴攻撃ベクトルについて検討した。
この研究は、各攻撃ベクトルをMITRE ATT&CK行列から戦術またはテクニックにマッピングする。
実験では、攻撃の有効性を評価するために50個の近超音波を生成し、調査した。
論文 参考訳(メタデータ) (2023-04-25T23:28:46Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - SoK: A Study of the Security on Voice Processing Systems [2.596028864336544]
我々は、音声処理システムに対するユニークな攻撃の配列を特定し、分類する。
現在の最も頻繁に使われている機械学習システムとディープニューラルネットワークは、現代の音声処理システムの中核にある。
論文 参考訳(メタデータ) (2021-12-24T21:47:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - SHARKS: Smart Hacking Approaches for RisK Scanning in Internet-of-Things
and Cyber-Physical Systems based on Machine Learning [5.265938973293016]
サイバー物理システム(CPS)とIoT(Internet-of-Things)デバイスは、ますます複数の機能にわたってデプロイされている。
これらのデバイスは、本質的にソフトウェア、ハードウェア、ネットワークスタック全体にわたって安全ではない。
本稿では,未知のシステム脆弱性の検出,脆弱性の管理,インシデント対応の改善のための革新的な手法を提案する。
論文 参考訳(メタデータ) (2021-01-07T22:01:30Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。