論文の概要: Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications
- arxiv url: http://arxiv.org/abs/2007.14570v1
- Date: Wed, 29 Jul 2020 03:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 20:49:55.604020
- Title: Measuring the Effectiveness of Privacy Policies for Voice Assistant
Applications
- Title(参考訳): 音声アシスタントアプリケーションにおけるプライバシポリシーの有効性の測定
- Authors: Song Liao, Christin Wilson, Long Cheng, Hongxin Hu, Huixing Deng
- Abstract要約: 音声アプリ開発者が提供するプライバシポリシの有効性を体系的に測定する,最初の大規模データ分析を行う。
我々は、Amazon Alexaのスキル64,720、Google Assistantのアクション2,201を分析した。
われわれの調査では、メインストリームの2つの音声アプリストアでプライバシーポリシーの恐ろしい現実が明らかになった。
- 参考スコア(独自算出の注目度): 12.150750035659383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Voice Assistants (VA) such as Amazon Alexa and Google Assistant are quickly
and seamlessly integrating into people's daily lives. The increased reliance on
VA services raises privacy concerns such as the leakage of private
conversations and sensitive information. Privacy policies play an important
role in addressing users' privacy concerns and informing them about the data
collection, storage, and sharing practices. VA platforms (both Amazon Alexa and
Google Assistant) allow third-party developers to build new voice-apps and
publish them to the app store. Voice-app developers are required to provide
privacy policies to disclose their apps' data practices. However, little is
known whether these privacy policies are informative and trustworthy or not on
emerging VA platforms. On the other hand, many users invoke voice-apps through
voice and thus there exists a usability challenge for users to access these
privacy policies. In this paper, we conduct the first large-scale data
analytics to systematically measure the effectiveness of privacy policies
provided by voice-app developers on two mainstream VA platforms. We seek to
understand the quality and usability issues of privacy policies provided by
developers in the current app stores. We analyzed 64,720 Amazon Alexa skills
and 2,201 Google Assistant actions. Our work also includes a user study to
understand users' perspectives on VA's privacy policies. Our findings reveal a
worrisome reality of privacy policies in two mainstream voice-app stores, where
there exists a substantial number of problematic privacy policies.
Surprisingly, Google and Amazon even have official voice-apps violating their
own requirements regarding the privacy policy.
- Abstract(参考訳): Amazon AlexaやGoogle Assistantといった音声アシスタント(VA)は、人々の日常生活に迅速かつシームレスに統合されています。
VAサービスへの依存度の増加は、プライベートな会話の漏洩や機密情報といったプライバシー上の懸念を引き起こす。
プライバシポリシは、ユーザのプライバシー問題に対処する上で重要な役割を担い、データ収集、ストレージ、共有プラクティスについて通知する。
VAプラットフォーム(Amazon AlexaとGoogle Assistantの両方)は、サードパーティ開発者が新しい音声アプリを構築し、それをアプリストアにパブリッシュすることを可能にする。
音声アプリ開発者は、アプリのデータ慣行を開示するためのプライバシーポリシーを提供する必要がある。
しかし、これらのプライバシーポリシーが情報であり、信頼できるかどうかが新興VAプラットフォームにかかっているかどうかは不明だ。
一方、多くのユーザーは音声で音声アプリを呼び出すため、これらのプライバシーポリシーにアクセスするためのユーザビリティの課題が存在する。
本稿では,2つの主流VAプラットフォーム上で音声アプリ開発者が提供するプライバシポリシの有効性を体系的に評価する,最初の大規模データ分析を行う。
私たちは、現在のアプリストアで開発者が提供するプライバシーポリシーの品質とユーザビリティの問題を理解しようとしています。
amazon alexaスキル64,720名とgoogle assistantアクション2,201名を分析した。
私たちの研究には,VAのプライバシポリシに対するユーザの視点を理解するためのユーザスタディも含まれている。
当社の調査結果は、2つのメインストリームの音声アプリストアにおけるプライバシーポリシーの不安な現実を明らかにしています。
驚いたことに、googleとamazonには、プライバシーポリシーに関する独自の要求に違反する公式の音声アプリさえある。
関連論文リスト
- A Large-Scale Privacy Assessment of Android Third-Party SDKs [17.245330733308375]
サードパーティのソフトウェア開発キット(SDK)は、Androidアプリ開発で広く採用されている。
この利便性は、ユーザのプライバシに敏感な情報への不正アクセスに関するかなりの懸念を引き起こす。
当社の研究では,AndroidサードパーティSDK間のユーザプライバシ保護を対象とする分析を行っている。
論文 参考訳(メタデータ) (2024-09-16T15:44:43Z) - VPVet: Vetting Privacy Policies of Virtual Reality Apps [27.62581114396347]
バーチャルリアリティ(VR)アプリは、パーソナルコンピュータやスマートフォン上で動作するWeb/モバイルアプリよりも幅広いユーザーデータを収集することができる。
既存の法とプライバシーの規制は、VR開発者がプライバシーポリシーを通じて収集/使用/共有されたデータ(CUS)をユーザーに知らせるべきであることを強調している。
本稿では,VRアプリのプライバシーポリシーコンプライアンス問題を自動的に検証するVPVetを提案する。
論文 参考訳(メタデータ) (2024-09-01T15:07:11Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - ATLAS: Automatically Detecting Discrepancies Between Privacy Policies
and Privacy Labels [2.457872341625575]
自動プライバシラベル解析システム(ATLAS)について紹介する。
ATLASは、モバイルアプリのプライバシーポリシーとプライバシーラベルの相違点を特定する。
平均して、アプリには5.32のコンプライアンス上の問題があることがわかっています。
論文 参考訳(メタデータ) (2023-05-24T05:27:22Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Privacy Policies Across the Ages: Content and Readability of Privacy
Policies 1996--2021 [1.5229257192293197]
透明性研究、機械学習、自然言語処理の手法を用いて、プライバシーポリシーの25年の歴史を分析した。
1996年から2021年までの大規模なプライバシーポリシーの長期コーパスを収集する。
我々の結果は、特に新しい規制が施行された後、政策が長く読みにくくなっていることを示している。
論文 参考訳(メタデータ) (2022-01-21T15:13:02Z) - Analysis of Longitudinal Changes in Privacy Behavior of Android
Applications [79.71330613821037]
本稿では,プライバシに関して,Androidアプリが時間とともにどのように変化してきたかを検討する。
HTTPSの採用、アプリが他のインストール済みアプリのデバイスをスキャンするかどうか、プライバシに敏感なデータに対するパーミッションの使用、ユニークな識別子の使用について検討する。
アプリがアップデートを受け続けるにつれて、プライバシ関連の振る舞いは時間とともに改善され、アプリによって使用されるサードパーティライブラリが、プライバシに関するより多くの問題に責任を負っていることが分かっています。
論文 参考訳(メタデータ) (2021-12-28T16:21:31Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。