論文の概要: Adversarial Agents For Attacking Inaudible Voice Activated Devices
- arxiv url: http://arxiv.org/abs/2307.12204v1
- Date: Sun, 23 Jul 2023 02:18:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 17:20:02.960541
- Title: Adversarial Agents For Attacking Inaudible Voice Activated Devices
- Title(参考訳): 不聴音声起動装置を攻撃するための敵エージェント
- Authors: Forrest McKee and David Noever
- Abstract要約: 音声アクティベートデバイスに対する難聴攻撃の分析では,10点中7.6点のアラーム危険因子が確認された。
2024年までに、この新たな攻撃面は、地球上の人々よりも多くのデジタル音声アシスタントを含んでいるかもしれない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our analysis of inaudible attacks on voice-activated devices confirms the
alarming risk factor of 7.6 out of 10, underlining significant security
vulnerabilities scored independently by NIST National Vulnerability Database
(NVD). Our baseline network model showcases a scenario in which an attacker
uses inaudible voice commands to gain unauthorized access to confidential
information on a secured laptop. We simulated many attack scenarios on this
baseline network model, revealing the potential for mass exploitation of
interconnected devices to discover and own privileged information through
physical access without adding new hardware or amplifying device skills. Using
Microsoft's CyberBattleSim framework, we evaluated six reinforcement learning
algorithms and found that Deep-Q learning with exploitation proved optimal,
leading to rapid ownership of all nodes in fewer steps. Our findings underscore
the critical need for understanding non-conventional networks and new
cybersecurity measures in an ever-expanding digital landscape, particularly
those characterized by mobile devices, voice activation, and non-linear
microphones susceptible to malicious actors operating stealth attacks in the
near-ultrasound or inaudible ranges. By 2024, this new attack surface might
encompass more digital voice assistants than people on the planet yet offer
fewer remedies than conventional patching or firmware fixes since the inaudible
attacks arise inherently from the microphone design and digital signal
processing.
- Abstract(参考訳): NIST National Vulnerability Database (NVD) が独立に収集したセキュリティ上の重大な脆弱性を裏付ける。
我々のベースラインネットワークモデルは、攻撃者が不正な音声コマンドを使用してセキュアなラップトップ上の機密情報に無許可でアクセスするシナリオを示す。
このベースラインネットワークモデル上で多くの攻撃シナリオをシミュレートし,ハードウェアの追加やデバイススキルの強化を伴わずに,物理的アクセスを通じて特権情報を発見し,所有する可能性を明らかにする。
microsoftのcyberbattlesimフレームワークを使用して、6つの強化学習アルゴリズムを評価し、悪用によるディープq学習が最適であることが分かり、より少ないステップですべてのノードの迅速なオーナシップにつながった。
特にモバイルデバイス、音声のアクティベーション、および悪意あるアクターがほぼ超音域または非音域で盗聴攻撃を行っていることを特徴とする非線形マイクが特徴である。
2024年までに、この新たな攻撃面は、地球上の人々よりも多くのデジタル音声アシスタントを含んでいるが、従来のパッチやファームウェアの修正よりも少ない修正を提供する。
関連論文リスト
- Countering Autonomous Cyber Threats [40.00865970939829]
ファンデーションモデルは、サイバードメイン内で広く、特に二元的関心事を提示します。
近年の研究では、これらの先進的なモデルが攻撃的なサイバースペース操作を通知または独立に実行する可能性を示している。
この研究は、孤立したネットワークでマシンを妥協する能力について、最先端のいくつかのFMを評価し、そのようなAIによる攻撃を倒す防御メカニズムを調査する。
論文 参考訳(メタデータ) (2024-10-23T22:46:44Z) - Toward Mixture-of-Experts Enabled Trustworthy Semantic Communication for 6G Networks [82.3753728955968]
本稿では,新しいMixture-of-Experts(MoE)ベースのSemComシステムを提案する。
このシステムはゲーティングネットワークと複数の専門家で構成され、それぞれ異なるセキュリティ課題に特化している。
ゲーティングネットワークは、ユーザ定義のセキュリティ要件に基づいて、異種攻撃に対抗するための適切な専門家を適応的に選択する。
車両ネットワークにおけるケーススタディは、MoEベースのSemComシステムの有効性を示す。
論文 参考訳(メタデータ) (2024-09-24T03:17:51Z) - Enhancing Privacy and Security of Autonomous UAV Navigation [0.8512184778338805]
国境警備や災害対応といった重要なシナリオでは、自律型無人機の安全な航行が最重要である。
本稿では,RL(Reinforcement Learning)とFHE(Fully Homomorphic Encryption)を組み合わせて,自律型UAVナビゲーションを実現する革新的な手法を提案する。
提案手法により,自律型UAVナビゲーションにおけるセキュリティとプライバシが保証され,性能が損なわれない。
論文 参考訳(メタデータ) (2024-04-26T07:54:04Z) - Acoustic Cybersecurity: Exploiting Voice-Activated Systems [0.0]
私たちの研究は、AmazonのAlexa、Android、iOS、Cortanaなど、さまざまなプラットフォームにおけるこれらの攻撃の可能性を広げています。
攻撃の成功率はおよそ60%で、遠隔で100フィート以上離れた場所からデバイスを起動できる。
これらの攻撃は重要なインフラを脅かし、多面的な防御戦略の必要性を強調した。
論文 参考訳(メタデータ) (2023-11-23T02:26:11Z) - Is Semantic Communications Secure? A Tale of Multi-Domain Adversarial
Attacks [70.51799606279883]
セマンティック・コミュニケーションのためのディープ・ニューラル・ネットワーク(DNN)に対するテスト・タイム・アタックを導入する。
再建損失が低い場合でも,伝達情報のセマンティクスを変更可能であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:13:22Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Attacking Deep Learning AI Hardware with Universal Adversarial
Perturbation [0.0]
Universal Adversarial Perturbationsは、実用的なディープラーニングアプリケーションのセキュリティと整合性を著しく損なう可能性がある。
ローグ手段(例えばマルウェアやトロイの木馬)によって起動された場合、既存の対策を回避できる攻撃戦略を実証する。
論文 参考訳(メタデータ) (2021-11-18T02:54:10Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - TANTRA: Timing-Based Adversarial Network Traffic Reshaping Attack [46.79557381882643]
本稿では,TANTRA(Adversarial Network Traffic Reshaping Attack)を提案する。
我々の回避攻撃は、ターゲットネットワークの良性パケット間の時間差を学習するために訓練された長い短期記憶(LSTM)ディープニューラルネットワーク(DNN)を利用する。
TANTRAは、ネットワーク侵入検出システム回避の平均成功率99.99%を達成します。
論文 参考訳(メタデータ) (2021-03-10T19:03:38Z) - Paralinguistic Privacy Protection at the Edge [5.349852254138085]
EDGYは高次元音声データを変換・フィルタリングする表現学習フレームワークで,クラウドへのオフロードに先立ってエッジの感度特性を識別・保持する。
その結果, EDGYは数ミリ秒で動作し, ABXスコアは0.2%向上し, 生音声信号から言語表現を学習する際のペナルティは最小限に抑えられた。
論文 参考訳(メタデータ) (2020-11-04T14:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。