論文の概要: C3PA: An Open Dataset of Expert-Annotated and Regulation-Aware Privacy Policies to Enable Scalable Regulatory Compliance Audits
- arxiv url: http://arxiv.org/abs/2410.03925v1
- Date: Fri, 04 Oct 2024 21:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:11:25.089792
- Title: C3PA: An Open Dataset of Expert-Annotated and Regulation-Aware Privacy Policies to Enable Scalable Regulatory Compliance Audits
- Title(参考訳): C3PA: スケーラブルな規制コンプライアンス監査を可能にするエキスパートアノテートおよび規制アウェアプライバシポリシのオープンデータセット
- Authors: Maaz Bin Musa, Steven M. Winston, Garrison Allen, Jacob Schiller, Kevin Moore, Sean Quick, Johnathan Melvin, Padmini Srinivasan, Mihailis E. Diamantis, Rishab Nithyanand,
- Abstract要約: C3PAは、専門家がアノテートしたプライバシポリシの最初の規制対応データセットである。
CCPA固有の開示義務に対する応答に関連する、専門家ラベル付きプライバシポリシテキストセグメントが48K以上含まれている。
- 参考スコア(独自算出の注目度): 7.1195014414194695
- License:
- Abstract: The development of tools and techniques to analyze and extract organizations data habits from privacy policies are critical for scalable regulatory compliance audits. Unfortunately, these tools are becoming increasingly limited in their ability to identify compliance issues and fixes. After all, most were developed using regulation-agnostic datasets of annotated privacy policies obtained from a time before the introduction of landmark privacy regulations such as EUs GDPR and Californias CCPA. In this paper, we describe the first open regulation-aware dataset of expert-annotated privacy policies, C3PA (CCPA Privacy Policy Provision Annotations), aimed to address this challenge. C3PA contains over 48K expert-labeled privacy policy text segments associated with responses to CCPA-specific disclosure mandates from 411 unique organizations. We demonstrate that the C3PA dataset is uniquely suited for aiding automated audits of compliance with CCPA-related disclosure mandates.
- Abstract(参考訳): プライバシポリシから組織データの習慣を分析し、抽出するツールとテクニックの開発は、スケーラブルな規制コンプライアンス監査にとって非常に重要です。
残念なことに、これらのツールは、コンプライアンスの問題や修正を識別する能力において、ますます制限されている。
その多くは、EUs GDPRやCalifornia CCPAのような目覚ましいプライバシー規制が導入される前から得られた、注釈付きプライバシーポリシーの規則に依存しないデータセットを使用して開発された。
本稿では,C3PA(CCPA Privacy Policy Provision Annotations,CCPA Privacy Policy Provision Annotations)という,専門家に通知されたプライバシポリシの最初のオープンレギュレーション対応データセットについて述べる。
C3PAには、CCPA固有の411の組織からの開示義務に対する応答に関連する、専門家ラベル付きプライバシポリシテキストセグメントが48K以上含まれている。
我々は,C3PAデータセットがCCPA関連開示委任書のコンプライアンスの自動化を支援するのに一意に適していることを示した。
関連論文リスト
- A BERT-based Empirical Study of Privacy Policies' Compliance with GDPR [9.676166100354282]
本研究は,5Gネットワークにおけるプライバシポリシ間のコンプライアンス分析の課題を解決することを目的とする。
約70のMNOから手動でプライバシポリシを収集し,BERTベースの自動モデルを用いて分類を行った。
さらに,5Gネットワークにおけるプライバシポリシの可読性に関する実証的証拠を初めて提示する。
論文 参考訳(メタデータ) (2024-07-09T11:47:52Z) - PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification [0.0]
本稿では,プライバシコンプライアンスのためのLarge Language Model (LLM)とSemantic Webベースのアプローチを提案する。
PrivComp-KGは、プライバシーポリシーに関する包括的な情報を効率的に保存し、取り出すように設計されている。
各ベンダーが関連するポリシー規則に違反するプライバシーポリシーの遵守を確認するよう問い合わせることができる。
論文 参考訳(メタデータ) (2024-04-30T17:44:44Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - A Fine-grained Chinese Software Privacy Policy Dataset for Sequence
Labeling and Regulation Compliant Identification [23.14031861460124]
中国初のプライバシポリシデータセットであるCA4P-483を構築し、シークエンスラベリングタスクと規制コンプライアンスの識別を容易にする。
私たちのデータセットには、中国のAndroidアプリケーションプライバシポリシ483、11K以上の文、52Kの細かいアノテーションが含まれています。
論文 参考訳(メタデータ) (2022-12-04T05:59:59Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - AI-enabled Automation for Completeness Checking of Privacy Policies [7.707284039078785]
ヨーロッパでは、プライバシーポリシーは一般データ保護規則に準拠する。
本稿では,プライバシーポリシーの完全性チェックのためのAIベースの自動化を提案する。
論文 参考訳(メタデータ) (2021-06-10T12:10:51Z) - Location Data and COVID-19 Contact Tracing: How Data Privacy Regulations
and Cell Service Providers Work In Tandem [1.1470070927586016]
携帯電話サービスプロバイダ(CSP)は、空間的および時間的リアルタイムなユーザトラッキングを可能にする。
規制のうち3つは、定義したモバイル位置情報をプライベート情報として分析した。
解析された5つのCSPのうち2つはCOPPAの規制に従わなかった。
論文 参考訳(メタデータ) (2021-03-25T22:13:50Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。