論文の概要: Evaluating Synthetic Command Attacks on Smart Voice Assistants
- arxiv url: http://arxiv.org/abs/2411.08316v2
- Date: Thu, 14 Nov 2024 19:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 12:19:57.152106
- Title: Evaluating Synthetic Command Attacks on Smart Voice Assistants
- Title(参考訳): スマート音声アシスタントにおける合成コマンド攻撃の評価
- Authors: Zhengxian He, Ashish Kundu, Mustaque Ahamad,
- Abstract要約: 単純な結合音声合成であっても、攻撃者が音声アシスタントに繊細な操作を指示するために使用できることを示す。
以上の結果から、音声アシスタントをターゲットとする合成悪意のあるコマンドに対するより良い防御の必要性が示された。
- 参考スコア(独自算出の注目度): 2.91784559412979
- License:
- Abstract: Recent advances in voice synthesis, coupled with the ease with which speech can be harvested for millions of people, introduce new threats to applications that are enabled by devices such as voice assistants (e.g., Amazon Alexa, Google Home etc.). We explore if unrelated and limited amount of speech from a target can be used to synthesize commands for a voice assistant like Amazon Alexa. More specifically, we investigate attacks on voice assistants with synthetic commands when they match command sources to authorized users, and applications (e.g., Alexa Skills) process commands only when their source is an authorized user with a chosen confidence level. We demonstrate that even simple concatenative speech synthesis can be used by an attacker to command voice assistants to perform sensitive operations. We also show that such attacks, when launched by exploiting compromised devices in the vicinity of voice assistants, can have relatively small host and network footprint. Our results demonstrate the need for better defenses against synthetic malicious commands that could target voice assistants.
- Abstract(参考訳): 音声合成の最近の進歩は、何百万人もの人々に音声が手に入ることの容易さと相まって、音声アシスタント(Amazon Alexa、Google Homeなど)などのデバイスで実現されるアプリケーションに新たな脅威をもたらす。
Amazon Alexaのような音声アシスタントのコマンドを合成するために、ターゲットからの無関係で限られた量の音声が使えるかどうかを探る。
より具体的には、コマンドソースと認証されたユーザとが一致した場合、音声アシスタントに対する攻撃を調査し、ソースが選択された信頼性レベルを持つ認証されたユーザである場合にのみ、アプリケーション(Alexaスキルなど)がコマンドを処理する。
単純な結合音声合成であっても、攻撃者が音声アシスタントを命令して繊細な操作を行うことができることを示す。
また,音声アシスタントの周辺に侵入したデバイスを利用すれば,ホストやネットワークのフットプリントが比較的小さくなることを示す。
以上の結果から、音声アシスタントをターゲットとする合成悪意のあるコマンドに対するより良い防御の必要性が示された。
関連論文リスト
- Distilling an End-to-End Voice Assistant Without Instruction Training Data [53.524071162124464]
Distilled Voice Assistant (DiVA)は、質問応答、分類、翻訳を一般化する。
Qwen 2 Audioのような最先端のモデルと比較すると,DiVAはユーザの好みによく適合し,72%の勝利率を達成した。
論文 参考訳(メタデータ) (2024-10-03T17:04:48Z) - Empowering Whisper as a Joint Multi-Talker and Target-Talker Speech Recognition System [73.34663391495616]
本稿では,複数話者と目標話者の音声認識タスクを併用する先駆的手法を提案する。
具体的には、Whisperを凍結し、Sidecarセパレータをエンコーダに差し込み、複数の話者に対する混合埋め込みを分離する。
AishellMix Mandarin データセット上で,マルチストーカー ASR 上で許容できるゼロショット性能を提供する。
論文 参考訳(メタデータ) (2024-07-13T09:28:24Z) - Follow-on Question Suggestion via Voice Hints for Voice Assistants [29.531005346608215]
我々は,ユーザがフォローアップ質問をできるように,コンパクトで自然な音声ヒントで質問を提案する新しい課題に取り組む。
質問リストから音声ヒントを生成するために,シーケンス・ツー・シーケンス・トランスフォーマを用いたベースラインとアプローチを提案する。
以上の結果から,提案する質問を和らげるナイーブなアプローチが,音声のヒントに乏しいことが示唆された。
論文 参考訳(メタデータ) (2023-10-25T22:22:18Z) - Rewriting the Script: Adapting Text Instructions for Voice Interaction [39.54213483588498]
音声アシスタントが複雑なタスクガイダンスにもたらす支配的アプローチの限界について検討する。
そこで本稿では,音声アシスタントが音声対話を通じて容易にコミュニケーションできる形態に変換できる8つの方法を提案する。
論文 参考訳(メタデータ) (2023-06-16T17:43:00Z) - SkillFence: A Systems Approach to Practically Mitigating Voice-Based
Confusion Attacks [9.203566746598439]
最近の研究によると、Amazon AlexaやGoogle Homeのような商用システムは、音声による混乱攻撃に弱い。
この種の攻撃に対するシステム指向の防御を提案し、Amazon Alexaの機能を実証する。
SkilIFenceは、既存の音声アシスタントユーザーがインストールできるブラウザ拡張機能で、コマンドに応答して適切なスキルのみを実行することを保証します。
論文 参考訳(メタデータ) (2022-12-16T22:22:04Z) - Deepfake audio detection by speaker verification [79.99653758293277]
本研究では,話者の生体特性のみを活用する新しい検出手法を提案する。
提案手法は,既成話者検証ツールに基づいて実装することができる。
そこで我々は,3つの一般的なテストセット上で,優れた性能,高い一般化能力,高ロバスト性を有する音声障害に対する高ロバスト性を検証した。
論文 参考訳(メタデータ) (2022-09-28T13:46:29Z) - The MIT Voice Name System [53.473846742702854]
我々は,音声対話を電話番号などの他のシステムと同様のユニバーサルリーチに標準化することを目指している。
音声をIoTオブジェクトと通信するための出発点として重視しています。
プライバシーとセキュリティは、音声からテキストへの誤りと音声サンプルに含まれる個人情報の量によって考慮される重要な要素である。
論文 参考訳(メタデータ) (2022-03-28T19:09:26Z) - Robust Sensor Fusion Algorithms Against VoiceCommand Attacks in
Autonomous Vehicles [8.35945218644081]
そこで本研究では,非可聴コマンド攻撃を防御するマルチモーダル深層学習分類システムを提案する。
提案手法の有効性を確認し,最良の分類精度は89.2%に達した。
論文 参考訳(メタデータ) (2021-04-20T10:08:46Z) - Audio Adversarial Examples: Attacks Using Vocal Masks [0.0]
自動音声テキストシステム上での音声対向例を構築した。
我々は、オリジナル音声から生成された音声のボーカルマスクをオーバーレイすることで、別の音声を生成する。
We apply our audio adversarial attack to five SOTA STT system: DeepSpeech, Julius, Kaldi, wav2letter@anywhere and CMUSphinx。
論文 参考訳(メタデータ) (2021-02-04T05:21:10Z) - Cortical Features for Defense Against Adversarial Audio Attacks [55.61885805423492]
本稿では,聴覚野の計算モデルを用いて,音声に対する敵対的攻撃に対する防御手法を提案する。
また,大脳皮質の特徴は,普遍的な敵の例に対する防御に有効であることを示す。
論文 参考訳(メタデータ) (2021-01-30T21:21:46Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。