論文の概要: SkillFence: A Systems Approach to Practically Mitigating Voice-Based
Confusion Attacks
- arxiv url: http://arxiv.org/abs/2212.08738v1
- Date: Fri, 16 Dec 2022 22:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:43:40.556865
- Title: SkillFence: A Systems Approach to Practically Mitigating Voice-Based
Confusion Attacks
- Title(参考訳): SkillFence: 音声による融合攻撃を効果的に軽減するシステムアプローチ
- Authors: Ashish Hooda, Matthew Wallace, Kushal Jhunjhunwalla, Earlence
Fernandes, Kassem Fawaz
- Abstract要約: 最近の研究によると、Amazon AlexaやGoogle Homeのような商用システムは、音声による混乱攻撃に弱い。
この種の攻撃に対するシステム指向の防御を提案し、Amazon Alexaの機能を実証する。
SkilIFenceは、既存の音声アシスタントユーザーがインストールできるブラウザ拡張機能で、コマンドに応答して適切なスキルのみを実行することを保証します。
- 参考スコア(独自算出の注目度): 9.203566746598439
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice assistants are deployed widely and provide useful functionality.
However, recent work has shown that commercial systems like Amazon Alexa and
Google Home are vulnerable to voice-based confusion attacks that exploit design
issues. We propose a systems-oriented defense against this class of attacks and
demonstrate its functionality for Amazon Alexa. We ensure that only the skills
a user intends execute in response to voice commands. Our key insight is that
we can interpret a user's intentions by analyzing their activity on counterpart
systems of the web and smartphones. For example, the Lyft ride-sharing Alexa
skill has an Android app and a website. Our work shows how information from
counterpart apps can help reduce dis-ambiguities in the skill invocation
process. We build SkilIFence, a browser extension that existing voice assistant
users can install to ensure that only legitimate skills run in response to
their commands. Using real user data from MTurk (N = 116) and experimental
trials involving synthetic and organic speech, we show that SkillFence provides
a balance between usability and security by securing 90.83% of skills that a
user will need with a False acceptance rate of 19.83%.
- Abstract(参考訳): ボイスアシスタントは広くデプロイされ、便利な機能を提供する。
しかし、最近の研究によると、Amazon AlexaやGoogle Homeのような商用システムは、設計問題を悪用する音声ベースの混乱攻撃に弱い。
この種の攻撃に対するシステム指向の防御を提案し、Amazon Alexaの機能を実証する。
音声コマンドに応答して、ユーザが実行しようとするスキルのみを保証する。
私たちの重要な洞察は、webとスマートフォンの対応するシステム上での活動を分析することで、ユーザの意図を解釈できるということです。
例えば、LyftのライドシェアリングAlexaスキルには、AndroidアプリとWebサイトがある。
私たちの研究は、対応するアプリからの情報が、スキルの呼び出しプロセスにおける曖昧さを減らすのにどのように役立つかを示しています。
SkilIFenceは、既存の音声アシスタントユーザーがインストールできるブラウザ拡張機能で、コマンドに応答して適切なスキルのみを実行することを保証します。
mturk (n = 116) の実際のユーザデータと合成音声および有機音声を用いた実験を用いて、スキルファンスがユーザに必要なスキルの90.83%を19.83%の誤受率で確保することにより、ユーザビリティとセキュリティのバランスを提供することを示した。
関連論文リスト
- Evaluating Synthetic Command Attacks on Smart Voice Assistants [2.91784559412979]
単純な結合音声合成であっても、攻撃者が音声アシスタントに繊細な操作を指示するために使用できることを示す。
以上の結果から、音声アシスタントをターゲットとする合成悪意のあるコマンドに対するより良い防御の必要性が示された。
論文 参考訳(メタデータ) (2024-11-13T03:51:58Z) - Distilling an End-to-End Voice Assistant Without Instruction Training Data [53.524071162124464]
Distilled Voice Assistant (DiVA)は、質問応答、分類、翻訳を一般化する。
Qwen 2 Audioのような最先端のモデルと比較すると,DiVAはユーザの好みによく適合し,72%の勝利率を達成した。
論文 参考訳(メタデータ) (2024-10-03T17:04:48Z) - SkillScanner: Detecting Policy-Violating Voice Applications Through Static Analysis at the Development Phase [24.084878589421113]
Amazon Alexaは、サードパーティのスキル開発者が遵守する一連のポリシー要件を実装した。
最近の研究は、現行のスキルストアにおける政策違反スキルの出現を明らかにしている。
論文 参考訳(メタデータ) (2023-09-11T23:22:34Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - The MIT Voice Name System [53.473846742702854]
我々は,音声対話を電話番号などの他のシステムと同様のユニバーサルリーチに標準化することを目指している。
音声をIoTオブジェクトと通信するための出発点として重視しています。
プライバシーとセキュリティは、音声からテキストへの誤りと音声サンプルに含まれる個人情報の量によって考慮される重要な要素である。
論文 参考訳(メタデータ) (2022-03-28T19:09:26Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Two-stage Voice Application Recommender System for Unhandled Utterances
in Intelligent Personal Assistant [5.475452673163167]
本稿では,サードパーティの音声アプリケーションと非手話音声をマッチングする2段階のショートリスト-リランダ推薦システムを提案する。
本稿では,ベースラインルールに基づくシステムから収集した観測データを用いて,新しいシステムを構築する方法について述べる。
ユーザエクスペリエンスの満足度を著しく向上させるオンラインA/Bテストの結果を提示する。
論文 参考訳(メタデータ) (2021-10-19T11:52:56Z) - "Alexa, what do you do for fun?" Characterizing playful requests with
virtual assistants [68.48043257125678]
Alexaからの実際のトラフィックを分析することで、ユーモアの理論に根ざした遊び心のあるリクエストの分類を紹介します。
我々の予想では、このような発話を理解することで仮想アシスタントのユーザエクスペリエンスが向上する。
論文 参考訳(メタデータ) (2021-05-12T10:48:00Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Detecting Distrust Towards the Skills of a Virtual Assistant Using
Speech [8.992916975952477]
本研究では,ユーザが音声に基づいて仮想アシスタント(VA)上に有する信頼度を自動的に検出する可能性について検討する。
被験者の発話は,利用者のVA能力に対する信頼を代行するものとして,使用するVAの種類を検出するのに有効であることがわかった。
論文 参考訳(メタデータ) (2020-07-30T19:56:17Z) - Learning to Rank Intents in Voice Assistants [2.102846336724103]
本稿では,意図的ランキングタスクのための新しいエネルギーモデルを提案する。
提案手法は,誤差率を3.8%削減することで,既存の手法よりも優れていることを示す。
また,意図的ランキングタスクにおけるアルゴリズムのロバスト性を評価し,そのロバスト性について33.3%向上したことを示す。
論文 参考訳(メタデータ) (2020-04-30T21:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。