論文の概要: PrivPRISM: Automatically Detecting Discrepancies Between Google Play Data Safety Declarations and Developer Privacy Policies
- arxiv url: http://arxiv.org/abs/2603.09214v1
- Date: Tue, 10 Mar 2026 05:33:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.059287
- Title: PrivPRISM: Automatically Detecting Discrepancies Between Google Play Data Safety Declarations and Developer Privacy Policies
- Title(参考訳): PrivPRISM: Google Playのデータ安全性宣言と開発者プライバシポリシーの相違を自動的に検出する
- Authors: Bhanuka Silva, Dishanika Denipitiyage, Anirban Mahanti, Aruna Seneviratne, Suranga Seneviratne,
- Abstract要約: 自己宣言的な開示は、実際のデータプラクティスについてユーザを非難する、完全なプライバシポリシと矛盾することが多い。
エンコーダとデコーダ言語モデルを組み合わせて,プライバシポリシから詳細なデータプラクティスを抽出し比較する,堅牢なフレームワークであるPrivPRISMを紹介した。
以上の結果から,汎用プライバシポリシの広範な再利用,曖昧/矛盾文の再利用,1億回以上ダウンロードされた著名なアプリの隠れリスクなど,システム上の課題が明らかになった。
- 参考スコア(独自算出の注目度): 8.052271364177988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-users seldom read verbose privacy policies, leading app stores like Google Play to mandate simplified data safety declarations as a user-friendly alternative. However, these self-declared disclosures often contradict the full privacy policies, deceiving users about actual data practices and violating regulatory requirements for consistency. To address this, we introduce PrivPRISM, a robust framework that combines encoder and decoder language models to systematically extract and compare fine-grained data practices from privacy policies and to compare against data safety declarations, enabling scalable detection of non-compliance. Evaluating 7,770 popular mobile games uncovers discrepancies in nearly 53% of cases, rising to 61% among 1,711 widely used generic apps. Additionally, static code analysis reveals possible under-disclosures, with privacy policies disclosing just 66.8% of potential accesses to sensitive data like location and financial information, versus only 36.4% in data safety declarations of mobile games. Our findings expose systemic issues, including widespread reuse of generic privacy policies, vague / contradictory statements, and hidden risks in high-profile apps with 100M+ downloads, underscoring the urgent need for automated enforcement to protect platform integrity and for end-users to be vigilant about sensitive data they disclose via popular apps.
- Abstract(参考訳): エンドユーザーのプライバシーポリシーはめったに読まれず、Google Playのようなアプリストアでは、シンプルなデータ安全性宣言をユーザーフレンドリーな代替手段として義務付けている。
しかしながら、これらの自己宣言的な開示は、ユーザを実際のデータプラクティスについて非難し、一貫性のための規制要件に違反している、完全なプライバシポリシと矛盾することが多い。
この問題を解決するために、我々は、エンコーダとデコーダ言語モデルを組み合わせた堅牢なフレームワークであるPrivPRISMを導入し、プライバシポリシからきめ細かいデータプラクティスを体系的に抽出し、比較し、データ安全性宣言と比較し、非コンプライアンスのスケーラブルな検出を可能にする。
7,770の人気のモバイルゲームを評価すると、ほぼ53%のケースで不一致が明らかとなり、一般的な1,711のアプリの中で61%まで上昇した。
さらに、静的コード分析は未公開の可能性を明らかにし、プライバシーポリシーは、位置情報や財務情報などの機密データへのアクセス可能性の66.8%しか公開していないが、モバイルゲームのデータ安全宣言の36.4%しか公開していない。
私たちの発見は、一般的なプライバシポリシの広範な再利用、曖昧/矛盾したステートメント、100万回以上ダウンロードされた著名なアプリの隠れリスクなど、システム上の問題を明らかにします。
関連論文リスト
- Your Privacy Depends on Others: Collusion Vulnerabilities in Individual Differential Privacy [50.66105844449181]
個々の差別的プライバシ(iDP)は、ユーザが自身のプライバシをコントロールすることを約束するが、この約束は実際には破られる可能性がある。
我々は、サンプリングベースのiDPメカニズムにおいて、これまで見過ごされていた脆弱性を明らかにした。
我々は、$(varepsilon_i,_i,overline)$-iDPというプライバシー契約を提案します。
論文 参考訳(メタデータ) (2026-01-19T10:26:12Z) - How to DP-fy Your Data: A Practical Guide to Generating Synthetic Data With Differential Privacy [52.00934156883483]
Differential Privacy(DP)は、情報漏洩を推論し、制限するフレームワークである。
Differentially Private Synthetic Dataは、ソースデータの全体的なトレンドを保存する合成データを指す。
論文 参考訳(メタデータ) (2025-12-02T21:14:39Z) - MAGPIE: A dataset for Multi-AGent contextual PrIvacy Evaluation [54.410825977390274]
LLMエージェントのコンテキストプライバシを評価するための既存のベンチマークは、主にシングルターン、低複雑さタスクを評価する。
まず、15ドメインにわたる158のリアルタイムハイテイクシナリオからなるベンチマーク-MAGPIEを示す。
次に、コンテキスト的にプライベートなデータに対する理解と、ユーザのプライバシを侵害することなくコラボレーションする能力に基づいて、最先端のLCMを評価します。
論文 参考訳(メタデータ) (2025-06-25T18:04:25Z) - RADS-Checker: Measuring Compliance with Right of Access by the Data Subject in Android Markets [5.598268459947247]
一般データ保護規則(RADS)のような最新のデータ保護規則は、個人データにアクセスする権利を確立している。
RADSはユーザーに対して、個人データコントローラから個人情報のコピーを取得する権利を与える。
現在、モバイルアプリケーションでRADSが効果的に実装されているかどうかを体系的に調査する研究は行われていない。
論文 参考訳(メタデータ) (2024-10-16T11:23:26Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - User Interaction Data in Apps: Comparing Policy Claims to
Implementations [0.0]
我々は、ポリシークレームとデータ収集手法の整合性を評価するために、静的解析手法を用いて、さまざまなカテゴリにまたがるトップ100アプリを分析した。
我々の調査結果は、データ収集における透明性の欠如と、それに伴う再識別のリスクを強調し、ユーザのプライバシと信頼に関する懸念を高めている。
論文 参考訳(メタデータ) (2023-12-05T12:11:11Z) - Toward the Cure of Privacy Policy Reading Phobia: Automated Generation
of Privacy Nutrition Labels From Privacy Policies [19.180437130066323]
プライバシーポリシーからプライバシー栄養ラベルを自動的に生成できる最初のフレームワークを提案する。
Google Play App StoreのData Safety Reportに関する私たちの真実のアプリケーションに基づいて、当社のフレームワークは、サードパーティのデータ収集プラクティスの生成において、0.75F1スコアを達成しています。
また、市場における地平の真実と保護されたプライバシーの栄養ラベルの矛盾を分析し、我々のフレームワークは90.1%の未解決の問題を検出することができる。
論文 参考訳(メタデータ) (2023-06-19T13:33:44Z) - ATLAS: Automatically Detecting Discrepancies Between Privacy Policies
and Privacy Labels [2.457872341625575]
自動プライバシラベル解析システム(ATLAS)について紹介する。
ATLASは、モバイルアプリのプライバシーポリシーとプライバシーラベルの相違点を特定する。
平均して、アプリには5.32のコンプライアンス上の問題があることがわかっています。
論文 参考訳(メタデータ) (2023-05-24T05:27:22Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。