論文の概要: Security and Privacy Problems in Voice Assistant Applications: A Survey
- arxiv url: http://arxiv.org/abs/2304.09486v1
- Date: Wed, 19 Apr 2023 08:17:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 15:08:20.231343
- Title: Security and Privacy Problems in Voice Assistant Applications: A Survey
- Title(参考訳): 音声アシスタントアプリケーションにおけるセキュリティとプライバシー問題:調査
- Authors: Jingjin Li, Chao chen, Lei Pan, Mostafa Rahimi Azghadi, Hossein
Ghodosi, Jun Zhang
- Abstract要約: IoT(Internet of Things)の急速な発展に伴い,セキュリティとプライバシの脅威が浮上した。
調査されたセキュリティ問題には、機械学習モデルに対する攻撃テクニックや、ボイスアシスタントアプリケーションで広く使用されている他のハードウェアコンポーネントが含まれる。
本稿では,サイバーセキュリティと音声ドメインの上位層会議に掲載された論文の中で,5種類のセキュリティ攻撃と3種類のプライバシ脅威を結論し,評価する。
- 参考スコア(独自算出の注目度): 10.10499765108625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice assistant applications have become omniscient nowadays. Two models that
provide the two most important functions for real-life applications (i.e.,
Google Home, Amazon Alexa, Siri, etc.) are Automatic Speech Recognition (ASR)
models and Speaker Identification (SI) models. According to recent studies,
security and privacy threats have also emerged with the rapid development of
the Internet of Things (IoT). The security issues researched include attack
techniques toward machine learning models and other hardware components widely
used in voice assistant applications. The privacy issues include technical-wise
information stealing and policy-wise privacy breaches. The voice assistant
application takes a steadily growing market share every year, but their privacy
and security issues never stopped causing huge economic losses and endangering
users' personal sensitive information. Thus, it is important to have a
comprehensive survey to outline the categorization of the current research
regarding the security and privacy problems of voice assistant applications.
This paper concludes and assesses five kinds of security attacks and three
types of privacy threats in the papers published in the top-tier conferences of
cyber security and voice domain.
- Abstract(参考訳): 音声アシスタントのアプリケーションは最近全能化している。
現実のアプリケーション(Google Home、Amazon Alexa、Siriなど)に最も重要な機能を提供する2つのモデルは、自動音声認識(ASR)モデルと話者識別(SI)モデルである。
最近の研究によると、IoT(Internet of Things)の急速な発展に伴い、セキュリティとプライバシの脅威も現れた。
研究されているセキュリティ問題は、機械学習モデルや、音声アシスタントアプリケーションで広く使われているハードウェアコンポーネントに対する攻撃技術である。
プライバシーの問題は、技術的な情報盗難とポリシー的なプライバシー侵害だ。
音声アシスタントアプリケーションは毎年着実に市場シェアを伸ばしているが、プライバシーとセキュリティの問題は大きな経済的損失を招き、ユーザーの個人情報を危険にさらすことは決してない。
したがって、音声アシスタントアプリケーションのセキュリティおよびプライバシー問題に関する現在の研究の分類を概観する総合的な調査を行うことが重要である。
本稿では,サイバーセキュリティと音声ドメインに関するトップレベルのカンファレンスにおいて,5種類のセキュリティ攻撃と3種類のプライバシ脅威を結論付け,評価する。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - Information Security and Privacy in the Digital World: Some Selected Topics [1.3592237162158234]
スパイラルで偽の情報を識別し、機密データのプライバシーを保護する上で、新たな課題に直面している。
この本は、コンピュータと通信における暗号とセキュリティの分野における最先端の研究成果をいくつか紹介する。
論文 参考訳(メタデータ) (2024-03-30T03:52:58Z) - Evaluating the Security and Privacy Risk Postures of Virtual Assistants [3.1943453294492543]
Alexa、Braina、Cortana、Google Assistant、Kalliope、Mycroft、Hound、Extremeの8つの広く使われている音声アシスタントのセキュリティとプライバシーの姿勢を評価した。
その結果、これらのVAは様々なセキュリティ脅威に対して脆弱であることが判明した。
これらの脆弱性は、悪意のあるアクターがユーザーの個人情報を不正にアクセスできるようにする可能性がある。
論文 参考訳(メタデータ) (2023-12-22T12:10:52Z) - Privacy-preserving and Privacy-attacking Approaches for Speech and Audio -- A Survey [7.88857172307008]
本稿では,音声・音声のプライバシー保護・プライバシー侵害対策の既存手法について検討する。
攻撃シナリオと防御シナリオをいくつかのカテゴリに分類し,各アプローチの詳細な分析を行う。
我々の調査によると、ニューラルネットワークに基づく音声制御デバイスは、本質的に特定の種類の攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2023-09-26T17:31:35Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Privacy in Open Search: A Review of Challenges and Solutions [0.6445605125467572]
情報検索(IR)は、攻撃や意図しない文書や検索履歴の開示など、プライバシー上の脅威に晒されている。
この研究は、ユーザの生成したテキストデータを含むタスクに焦点を当て、最近のIR文学におけるプライバシーに関するオープンな課題を強調し、議論することを目的としている。
論文 参考訳(メタデータ) (2021-10-20T18:38:48Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Speaker De-identification System using Autoencoders and Adversarial
Training [58.720142291102135]
本稿では,対人訓練とオートエンコーダに基づく話者識別システムを提案する。
実験結果から, 対向学習とオートエンコーダを組み合わせることで, 話者検証システムの誤り率が同等になることがわかった。
論文 参考訳(メタデータ) (2020-11-09T19:22:05Z) - Stop Bugging Me! Evading Modern-Day Wiretapping Using Adversarial
Perturbations [47.32228513808444]
ボイスオーバーIP(VoIP)会話のための大量監視システムは、プライバシーに大きなリスクをもたらす。
本稿では、VoIP会話のプライバシー保護のための逆学習に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-24T06:56:35Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications [12.150750035659383]
音声アプリ開発者が提供するプライバシポリシの有効性を体系的に測定する,最初の大規模データ分析を行う。
我々は、Amazon Alexaのスキル64,720、Google Assistantのアクション2,201を分析した。
われわれの調査では、メインストリームの2つの音声アプリストアでプライバシーポリシーの恐ろしい現実が明らかになった。
論文 参考訳(メタデータ) (2020-07-29T03:17:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。