論文の概要: Evaluating the Security and Privacy Risk Postures of Virtual Assistants
- arxiv url: http://arxiv.org/abs/2312.14633v1
- Date: Fri, 22 Dec 2023 12:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 15:18:47.918134
- Title: Evaluating the Security and Privacy Risk Postures of Virtual Assistants
- Title(参考訳): 仮想アシスタントのセキュリティとプライバシーリスク姿勢の評価
- Authors: Borna Kalhor, Sanchari Das
- Abstract要約: Alexa、Braina、Cortana、Google Assistant、Kalliope、Mycroft、Hound、Extremeの8つの広く使われている音声アシスタントのセキュリティとプライバシーの姿勢を評価した。
その結果、これらのVAは様々なセキュリティ脅威に対して脆弱であることが判明した。
これらの脆弱性は、悪意のあるアクターがユーザーの個人情報を不正にアクセスできるようにする可能性がある。
- 参考スコア(独自算出の注目度): 3.1943453294492543
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Virtual assistants (VAs) have seen increased use in recent years due to their
ease of use for daily tasks. Despite their growing prevalence, their security
and privacy implications are still not well understood. To address this gap, we
conducted a study to evaluate the security and privacy postures of eight widely
used voice assistants: Alexa, Braina, Cortana, Google Assistant, Kalliope,
Mycroft, Hound, and Extreme. We used three vulnerability testing tools,
AndroBugs, RiskInDroid, and MobSF, to assess the security and privacy of these
VAs. Our analysis focused on five areas: code, access control, tracking, binary
analysis, and sensitive data confidentiality. The results revealed that these
VAs are vulnerable to a range of security threats, including not validating SSL
certificates, executing raw SQL queries, and using a weak mode of the AES
algorithm. These vulnerabilities could allow malicious actors to gain
unauthorized access to users' personal information. This study is a first step
toward understanding the risks associated with these technologies and provides
a foundation for future research to develop more secure and privacy-respecting
VAs.
- Abstract(参考訳): 仮想アシスタント(VA)は、日々の作業で使いやすくなっているため、近年利用が増えている。
その普及にもかかわらず、セキュリティとプライバシーの影響はいまだによく分かっていない。
このギャップに対処するために、Alexa、Braina、Cortana、Google Assistant、Kalliope、Mycroft、Hound、Extremeの8つの広く使われている音声アシスタントのセキュリティとプライバシーの姿勢を評価する調査を行った。
私たちは3つの脆弱性テストツール、AndroBugs, RiskInDroid, MobSFを使って、これらのVAのセキュリティとプライバシを評価しました。
分析は、コード、アクセス制御、トラッキング、バイナリ分析、機密データ機密性の5つの領域に焦点を当てた。
その結果、これらのVAはSSL証明書の検証、生のSQLクエリの実行、AESアルゴリズムの弱いモードの使用など、さまざまなセキュリティ脅威に対して脆弱であることが判明した。
これらの脆弱性は、悪意のあるアクターがユーザーの個人情報を不正にアクセスできるようにする可能性がある。
この研究は、これらの技術に関連するリスクを理解するための第一歩であり、より安全でプライバシーを尊重するVAを開発するための将来の研究の基礎を提供する。
関連論文リスト
- Security Analysis of Top-Ranked mHealth Fitness Apps: An Empirical Study [0.32885740436059047]
われわれはトップランクのAndroidヘルスおよびフィットネスアプリのセキュリティ脆弱性を調査した。
安全でないコーディング,ハードコードされた機密情報,過度に特権化されたパーミッション,設定ミス,サードパーティドメインとの過剰な通信など,多くの脆弱性が確認された。
論文 参考訳(メタデータ) (2024-09-27T08:11:45Z) - A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - Understanding Hackers' Work: An Empirical Study of Offensive Security
Practitioners [0.0]
攻撃的なセキュリティテストは、潜在的な脆弱性を積極的に発見する一般的な方法である。
ホワイトハットハッカーの慢性的な欠如は、ソフトウェアの十分なセキュリティテストカバレッジを妨げている。
自動化の研究は、セキュリティテストの効率を改善することによって、この問題を緩和しようとする。
論文 参考訳(メタデータ) (2023-08-14T10:35:26Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Privacy of Autonomous Vehicles: Risks, Protection Methods, and Future
Directions [23.778855805039438]
AVのプライバシーリスクと保護方法のための新しい分類法を提供する。
AVのプライバシーは、個人、人口、プロプライエタリの3つのレベルに分類されます。
論文 参考訳(メタデータ) (2022-09-08T20:16:21Z) - Voting for the right answer: Adversarial defense for speaker
verification [79.10523688806852]
ASVは敵の攻撃のレーダー下にあり、これは人間の知覚による本来の攻撃と似ている。
盲点領域におけるASVのリスクの高い決定を防止するため、「正しい回答を求める」という考え方を提案する。
実験結果から,本手法は両攻撃者に対するロバスト性を向上することが示された。
論文 参考訳(メタデータ) (2021-06-15T04:05:28Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。