論文の概要: Is It a Trap? A Large-scale Empirical Study And Comprehensive Assessment
of Online Automated Privacy Policy Generators for Mobile Apps
- arxiv url: http://arxiv.org/abs/2305.03271v2
- Date: Sat, 23 Sep 2023 11:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 12:14:00.588354
- Title: Is It a Trap? A Large-scale Empirical Study And Comprehensive Assessment
of Online Automated Privacy Policy Generators for Mobile Apps
- Title(参考訳): それはトラップか?
モバイルアプリ用オンライン自動プライバシーポリシージェネレータの大規模実証研究と包括的評価
- Authors: Shidong Pan, Dawen Zhang, Mark Staples, Zhenchang Xing, Jieshan Chen,
Xiwei Xu, and James Hoang
- Abstract要約: 自動プライバシポリシジェネレータは、モバイルアプリのプライバシポリシを作成することができる。
プライバシーポリシーの約20.1%は、既存のAPPGによって生成される可能性がある。
アプリケーション開発者は、潜在的な落とし穴を避けるために、適切にAPPGを選択して使用する必要があります。
- 参考スコア(独自算出の注目度): 15.181098379077344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy regulations protect and promote the privacy of individuals by
requiring mobile apps to provide a privacy policy that explains what personal
information is collected and how these apps process this information. However,
developers often do not have sufficient legal knowledge to create such privacy
policies. Online Automated Privacy Policy Generators (APPGs) can create privacy
policies, but their quality and other characteristics can vary. In this paper,
we conduct the first large-scale empirical study and comprehensive assessment
of APPGs for mobile apps. Specifically, we scrutinize 10 APPGs on multiple
dimensions. We further perform the market penetration analysis by collecting
46,472 Android app privacy policies from Google Play, discovering that nearly
20.1% of privacy policies could be generated by existing APPGs. Lastly, we
point out that generated policies in our study do not fully comply with GDPR,
CCPA, or LGPD. In summary, app developers must carefully select and use the
appropriate APPGs with careful consideration to avoid potential pitfalls.
- Abstract(参考訳): プライバシ規制は、モバイルアプリに対して、個人情報の収集方法と、その処理方法を説明するプライバシーポリシーを提供することによって、個人のプライバシを保護し、促進する。
しかし、開発者はそのようなプライバシーポリシーを作成するのに十分な法的知識を持っていないことが多い。
オンライン自動プライバシポリシジェネレータ(APPG)は、プライバシポリシを作成することができるが、その品質やその他の特性は様々である。
本稿では,モバイルアプリ用APPGの大規模実験と総合評価を行う。
具体的には,多次元で10個のAPPGを精査する。
さらに、Google Playから46,472のAndroidアプリのプライバシポリシを収集し、既存のAPPGによって20.1%近いプライバシポリシが生成されることを発見した。
最後に,本研究で得られた政策がGDPR,CCPA,LGPDに完全に準拠していないことを指摘する。
要約すると、アプリ開発者は潜在的な落とし穴を避けるために、適切なappgを慎重に選択して使用する必要があります。
関連論文リスト
- Interactive GDPR-Compliant Privacy Policy Generation for Software Applications [6.189770781546807]
ソフトウェアアプリケーションを使用するには、ユーザが個人情報を提供するように要求されることがある。
プライバシーが重要な関心事になっているため、世界中で多くの保護規制が存在している。
本稿では,包括的かつ適合したプライバシポリシを生成するアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T01:22:16Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Toward the Cure of Privacy Policy Reading Phobia: Automated Generation
of Privacy Nutrition Labels From Privacy Policies [19.180437130066323]
プライバシーポリシーからプライバシー栄養ラベルを自動的に生成できる最初のフレームワークを提案する。
Google Play App StoreのData Safety Reportに関する私たちの真実のアプリケーションに基づいて、当社のフレームワークは、サードパーティのデータ収集プラクティスの生成において、0.75F1スコアを達成しています。
また、市場における地平の真実と保護されたプライバシーの栄養ラベルの矛盾を分析し、我々のフレームワークは90.1%の未解決の問題を検出することができる。
論文 参考訳(メタデータ) (2023-06-19T13:33:44Z) - ATLAS: Automatically Detecting Discrepancies Between Privacy Policies
and Privacy Labels [2.457872341625575]
自動プライバシラベル解析システム(ATLAS)について紹介する。
ATLASは、モバイルアプリのプライバシーポリシーとプライバシーラベルの相違点を特定する。
平均して、アプリには5.32のコンプライアンス上の問題があることがわかっています。
論文 参考訳(メタデータ) (2023-05-24T05:27:22Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Analysis of Longitudinal Changes in Privacy Behavior of Android
Applications [79.71330613821037]
本稿では,プライバシに関して,Androidアプリが時間とともにどのように変化してきたかを検討する。
HTTPSの採用、アプリが他のインストール済みアプリのデバイスをスキャンするかどうか、プライバシに敏感なデータに対するパーミッションの使用、ユニークな識別子の使用について検討する。
アプリがアップデートを受け続けるにつれて、プライバシ関連の振る舞いは時間とともに改善され、アプリによって使用されるサードパーティライブラリが、プライバシに関するより多くの問題に責任を負っていることが分かっています。
論文 参考訳(メタデータ) (2021-12-28T16:21:31Z) - Tracking in apps' privacy policies [3.8073142980733]
2019年5月、プライバシーポリシーを26,910のモバイルアプリから分析しました。
52のアプリ開発者がプライバシポリシを提供していないため、データプラクティスについて質問した。
このようなクエリに法的に答える必要があるにも関わらず、12人の開発者(23%)は応答しなかった。
論文 参考訳(メタデータ) (2021-11-15T16:03:59Z) - Automated Detection of GDPR Disclosure Requirements in Privacy Policies
using Deep Active Learning [3.659023646021795]
ほとんどのプライバシポリシは冗長で、ジャーゴンに満ちており、企業のデータプラクティスとユーザの権利を曖昧に記述しています。
本稿では,18の要件をラベル付けした1,080のWebサイトのプライバシポリシデータセットを作成する。
我々は、89.2%の精度でプライバシーポリシーを分類できる畳み込みネットワーク(CNN)ベースのモデルを開発した。
論文 参考訳(メタデータ) (2021-11-08T01:28:27Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。