論文の概要: Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications
- arxiv url: http://arxiv.org/abs/2007.14570v1
- Date: Wed, 29 Jul 2020 03:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 20:49:55.604020
- Title: Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications
- Title(参考訳): 音声アシスタントアプリケーションにおけるプライバシポリシーの有効性の測定
- Authors: Song Liao, Christin Wilson, Long Cheng, Hongxin Hu, Huixing Deng
- Abstract要約: 音声アプリ開発者が提供するプライバシポリシの有効性を体系的に測定する,最初の大規模データ分析を行う。
我々は、Amazon Alexaのスキル64,720、Google Assistantのアクション2,201を分析した。
われわれの調査では、メインストリームの2つの音声アプリストアでプライバシーポリシーの恐ろしい現実が明らかになった。
- 参考スコア(独自算出の注目度): 12.150750035659383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice Assistants (VA) such as Amazon Alexa and Google Assistant are quickly
and seamlessly integrating into people's daily lives. The increased reliance on
VA services raises privacy concerns such as the leakage of private
conversations and sensitive information. Privacy policies play an important
role in addressing users' privacy concerns and informing them about the data
collection, storage, and sharing practices. VA platforms (both Amazon Alexa and
Google Assistant) allow third-party developers to build new voice-apps and
publish them to the app store. Voice-app developers are required to provide
privacy policies to disclose their apps' data practices. However, little is
known whether these privacy policies are informative and trustworthy or not on
emerging VA platforms. On the other hand, many users invoke voice-apps through
voice and thus there exists a usability challenge for users to access these
privacy policies. In this paper, we conduct the first large-scale data
analytics to systematically measure the effectiveness of privacy policies
provided by voice-app developers on two mainstream VA platforms. We seek to
understand the quality and usability issues of privacy policies provided by
developers in the current app stores. We analyzed 64,720 Amazon Alexa skills
and 2,201 Google Assistant actions. Our work also includes a user study to
understand users' perspectives on VA's privacy policies. Our findings reveal a
worrisome reality of privacy policies in two mainstream voice-app stores, where
there exists a substantial number of problematic privacy policies.
Surprisingly, Google and Amazon even have official voice-apps violating their
own requirements regarding the privacy policy.
- Abstract(参考訳): Amazon AlexaやGoogle Assistantといった音声アシスタント(VA)は、人々の日常生活に迅速かつシームレスに統合されています。
VAサービスへの依存度の増加は、プライベートな会話の漏洩や機密情報といったプライバシー上の懸念を引き起こす。
プライバシポリシは、ユーザのプライバシー問題に対処する上で重要な役割を担い、データ収集、ストレージ、共有プラクティスについて通知する。
VAプラットフォーム(Amazon AlexaとGoogle Assistantの両方)は、サードパーティ開発者が新しい音声アプリを構築し、それをアプリストアにパブリッシュすることを可能にする。
音声アプリ開発者は、アプリのデータ慣行を開示するためのプライバシーポリシーを提供する必要がある。
しかし、これらのプライバシーポリシーが情報であり、信頼できるかどうかが新興VAプラットフォームにかかっているかどうかは不明だ。
一方、多くのユーザーは音声で音声アプリを呼び出すため、これらのプライバシーポリシーにアクセスするためのユーザビリティの課題が存在する。
本稿では,2つの主流VAプラットフォーム上で音声アプリ開発者が提供するプライバシポリシの有効性を体系的に評価する,最初の大規模データ分析を行う。
私たちは、現在のアプリストアで開発者が提供するプライバシーポリシーの品質とユーザビリティの問題を理解しようとしています。
amazon alexaスキル64,720名とgoogle assistantアクション2,201名を分析した。
私たちの研究には,VAのプライバシポリシに対するユーザの視点を理解するためのユーザスタディも含まれている。
当社の調査結果は、2つのメインストリームの音声アプリストアにおけるプライバシーポリシーの不安な現実を明らかにしています。
驚いたことに、googleとamazonには、プライバシーポリシーに関する独自の要求に違反する公式の音声アプリさえある。
関連論文リスト
- Toward the Cure of Privacy Policy Reading Phobia: Automated Generation
of Privacy Nutrition Labels From Privacy Policies [19.180437130066323]
プライバシーポリシーからプライバシー栄養ラベルを自動的に生成できる最初のフレームワークを提案する。
Google Play App StoreのData Safety Reportに関する私たちの真実のアプリケーションに基づいて、当社のフレームワークは、サードパーティのデータ収集プラクティスの生成において、0.75F1スコアを達成しています。
また、市場における地平の真実と保護されたプライバシーの栄養ラベルの矛盾を分析し、我々のフレームワークは90.1%の未解決の問題を検出することができる。
論文 参考訳(メタデータ) (2023-06-19T13:33:44Z) - ATLAS: Automatically Detecting Discrepancies Between Privacy Policies
and Privacy Labels [2.457872341625575]
自動プライバシラベル解析システム(ATLAS)について紹介する。
ATLASは、モバイルアプリのプライバシーポリシーとプライバシーラベルの相違点を特定する。
平均して、アプリには5.32のコンプライアンス上の問題があることがわかっています。
論文 参考訳(メタデータ) (2023-05-24T05:27:22Z) - Security and Privacy Problems in Voice Assistant Applications: A Survey [10.10499765108625]
IoT(Internet of Things)の急速な発展に伴い,セキュリティとプライバシの脅威が浮上した。
調査されたセキュリティ問題には、機械学習モデルに対する攻撃テクニックや、ボイスアシスタントアプリケーションで広く使用されている他のハードウェアコンポーネントが含まれる。
本稿では,サイバーセキュリティと音声ドメインの上位層会議に掲載された論文の中で,5種類のセキュリティ攻撃と3種類のプライバシ脅威を結論し,評価する。
論文 参考訳(メタデータ) (2023-04-19T08:17:01Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Privacy Policies Across the Ages: Content and Readability of Privacy
Policies 1996--2021 [1.5229257192293197]
透明性研究、機械学習、自然言語処理の手法を用いて、プライバシーポリシーの25年の歴史を分析した。
1996年から2021年までの大規模なプライバシーポリシーの長期コーパスを収集する。
我々の結果は、特に新しい規制が施行された後、政策が長く読みにくくなっていることを示している。
論文 参考訳(メタデータ) (2022-01-21T15:13:02Z) - Analysis of Longitudinal Changes in Privacy Behavior of Android
Applications [79.71330613821037]
本稿では,プライバシに関して,Androidアプリが時間とともにどのように変化してきたかを検討する。
HTTPSの採用、アプリが他のインストール済みアプリのデバイスをスキャンするかどうか、プライバシに敏感なデータに対するパーミッションの使用、ユニークな識別子の使用について検討する。
アプリがアップデートを受け続けるにつれて、プライバシ関連の振る舞いは時間とともに改善され、アプリによって使用されるサードパーティライブラリが、プライバシに関するより多くの問題に責任を負っていることが分かっています。
論文 参考訳(メタデータ) (2021-12-28T16:21:31Z) - Stop Bugging Me! Evading Modern-Day Wiretapping Using Adversarial
Perturbations [47.32228513808444]
ボイスオーバーIP(VoIP)会話のための大量監視システムは、プライバシーに大きなリスクをもたらす。
本稿では、VoIP会話のプライバシー保護のための逆学習に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-24T06:56:35Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。