論文の概要: SoK: A Study of the Security on Voice Processing Systems
- arxiv url: http://arxiv.org/abs/2112.13144v1
- Date: Fri, 24 Dec 2021 21:47:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 11:27:11.471161
- Title: SoK: A Study of the Security on Voice Processing Systems
- Title(参考訳): SoK:音声処理システムのセキュリティに関する研究
- Authors: Robert Chang, Logan Kuo, Arthur Liu, and Nader Sehatbakhsh
- Abstract要約: 我々は、音声処理システムに対するユニークな攻撃の配列を特定し、分類する。
現在の最も頻繁に使われている機械学習システムとディープニューラルネットワークは、現代の音声処理システムの中核にある。
- 参考スコア(独自算出の注目度): 2.596028864336544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of Voice Processing Systems (VPS) continues to become more
prevalent in our daily lives through the increased reliance on applications
such as commercial voice recognition devices as well as major text-to-speech
software, the attacks on these systems are increasingly complex, varied, and
constantly evolving. With the use cases for VPS rapidly growing into new spaces
and purposes, the potential consequences regarding privacy are increasingly
more dangerous. In addition, the growing number and increased practicality of
over-the-air attacks have made system failures much more probable. In this
paper, we will identify and classify an arrangement of unique attacks on voice
processing systems. Over the years research has been moving from specialized,
untargeted attacks that result in the malfunction of systems and the denial of
services to more general, targeted attacks that can force an outcome controlled
by an adversary. The current and most frequently used machine learning systems
and deep neural networks, which are at the core of modern voice processing
systems, were built with a focus on performance and scalability rather than
security. Therefore, it is critical for us to reassess the developing voice
processing landscape and to identify the state of current attacks and defenses
so that we may suggest future developments and theoretical improvements.
- Abstract(参考訳): 音声処理システム(vps)の使用は、商用音声認識デバイスや主要なテキスト対音声ソフトウェアといったアプリケーションへの依存が高まり、日々の日常生活で普及し続けているため、これらのシステムに対する攻撃はますます複雑で、多様で、絶えず進化している。
VPSのユースケースが急速に新しいスペースと目的に成長するにつれ、プライバシーに関する潜在的な影響はますます危険になっている。
さらに、空襲の数の増加と実用性の増加により、システム障害はずっと起こり得るものになっている。
本稿では,音声処理システムにおけるユニークな攻撃の配置を識別し,分類する。
長年にわたり研究は、システムの故障やサービスの否定をもたらす特殊な標的のない攻撃から、敵によって制御される結果を強制するより汎用的な攻撃へと移行してきた。
現在の最も頻繁に使用されている機械学習システムと、現代の音声処理システムの中核であるディープニューラルネットワークは、セキュリティよりもパフォーマンスとスケーラビリティを重視して構築されている。
したがって,我々は音声処理環境の発達を再評価し,今後の発展と理論的改善を提案するために,現在の攻撃・防御の状況を特定することが重要である。
関連論文リスト
- Vulnerabilities in Machine Learning-Based Voice Disorder Detection Systems [3.4745231630177136]
分類を逆転させ、信頼性を損なう攻撃の可能性を探る。
個人の健康情報の重要性を考えると、攻撃の種類が効果的であるかを理解することは、このようなシステムのセキュリティを改善するための第一歩となる。
以上の結果から,医療領域で使用される機械学習システムにおいて,これらの脆弱性に対処する必要性が指摘され,最も効果的な攻撃戦略が明らかになった。
論文 参考訳(メタデータ) (2024-10-21T10:14:44Z) - Safeguarding Voice Privacy: Harnessing Near-Ultrasonic Interference To Protect Against Unauthorized Audio Recording [0.0]
本稿では,音声認識アルゴリズム(ASR)の音場近傍からの干渉に対する感受性について検討する。
現代の音声アクティベートデバイスで使われている最も一般的なマイクロフォンでは、ほぼ超音波周波数を聴覚スペクトルに不注意に復調する致命的な脆弱性が露呈する。
本研究は,この脆弱性の悪用から発声システムを保護するために,堅牢な対策を開発する必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-04-07T00:49:19Z) - A Practical Survey on Emerging Threats from AI-driven Voice Attacks: How Vulnerable are Commercial Voice Control Systems? [13.115517847161428]
AIによる音声攻撃により、音声制御システムに新たなセキュリティ脆弱性が明らかになった。
本研究は,悪意ある音声攻撃に対する商用音声制御システムのレジリエンスを評価するための試みである。
以上の結果から,商用音声制御システムは既存の脅威に対する耐性を高めることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T21:51:13Z) - Acoustic Cybersecurity: Exploiting Voice-Activated Systems [0.0]
私たちの研究は、AmazonのAlexa、Android、iOS、Cortanaなど、さまざまなプラットフォームにおけるこれらの攻撃の可能性を広げています。
攻撃の成功率はおよそ60%で、遠隔で100フィート以上離れた場所からデバイスを起動できる。
これらの攻撃は重要なインフラを脅かし、多面的な防御戦略の必要性を強調した。
論文 参考訳(メタデータ) (2023-11-23T02:26:11Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial Attacks On Multi-Agent Communication [80.4392160849506]
現代の自律システムはすぐに大規模に展開され、協調型マルチエージェントシステムの可能性を広げる。
このような利点は、セキュリティ侵害に対して脆弱であることが示されている通信チャネルに大きく依存している。
本稿では,エージェントが学習した中間表現を共有してコミュニケーションする新しいマルチエージェント環境において,このような攻撃を探索する。
論文 参考訳(メタデータ) (2021-01-17T00:35:26Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial Attack and Defense Strategies for Deep Speaker Recognition
Systems [44.305353565981015]
本稿では, 深層話者認識システムに対する最先端の敵攻撃について考察し, 強力な防御手法を対策として用いた。
実験により、話者認識システムは敵攻撃に弱いことが示され、最も強い攻撃はシステムの精度を94%から0%に下げることができる。
論文 参考訳(メタデータ) (2020-08-18T00:58:19Z) - SoK: The Faults in our ASRs: An Overview of Attacks against Automatic
Speech Recognition and Speaker Identification Systems [28.635467696564703]
音声と話者システムのエンドツーエンドアーキテクチャは、画像空間のそれとはかなり異なる攻撃と防御を行うことを示す。
そして、これらのモデルに対する攻撃はほとんど普遍的に転送できないことを実験的に実証した。
論文 参考訳(メタデータ) (2020-07-13T18:52:25Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。