論文の概要: Properties of Effective Information Anonymity Regulations
- arxiv url: http://arxiv.org/abs/2408.14740v1
- Date: Tue, 27 Aug 2024 02:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 15:14:31.877452
- Title: Properties of Effective Information Anonymity Regulations
- Title(参考訳): 効果的な情報匿名性規制の特性
- Authors: Aloni Cohen, Micah Altman, Francesca Falzon, Evangelina Anna Markatou, Kobbi Nissim,
- Abstract要約: 我々は匿名化規則と関連する規則に関する一連の技術的要件を策定する。
例として、EUの一般データ保護規則(General Data Protection Regulation)からの規制要件の競合する解釈を評価します。
- 参考スコア(独自算出の注目度): 6.8322083925948185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A firm seeks to analyze a dataset and to release the results. The dataset contains information about individual people, and the firm is subject to some regulation that forbids the release of the dataset itself. The regulation also imposes conditions on the release of the results. What properties should the regulation satisfy? We restrict our attention to regulations tailored to controlling the downstream effects of the release specifically on the individuals to whom the data relate. A particular example of interest is an anonymization rule, where a data protection regulation limiting the disclosure of personally identifiable information does not restrict the distribution of data that has been sufficiently anonymized. In this paper, we develop a set of technical requirements for anonymization rules and related regulations. The requirements are derived by situating within a simple abstract model of data processing a set of guiding general principles put forth in prior work. We describe an approach to evaluating such regulations using these requirements -- thus enabling the application of the general principles for the design of mechanisms. As an exemplar, we evaluate competing interpretations of regulatory requirements from the EU's General Data Protection Regulation.
- Abstract(参考訳): ある企業は、データセットを分析し、結果をリリースしようとします。
データセットには個人に関する情報が含まれており、データセットのリリース自体を禁止しているいくつかの規制の対象となっている。
規則は結果の公開に関する条件も課している。
規制はどのような特性を満たすべきか?
我々は、データに関連する個人に対して、リリースの下流効果を制御するための規制に注意を向ける。
個人識別可能な情報の開示を制限するデータ保護規則は、十分に匿名化されているデータの配布を制限するものではない。
本稿では,匿名化規則と関連する規則に関する一連の技術的要件を開発する。
これらの要件は、データ処理の単純な抽象モデルの中に、事前の作業で課された一般的な原則を導くことによって導出されます。
このような規制をこれらの要件を用いて評価するアプローチについて説明する。これにより、メカニズムの設計に一般的な原則が適用できるようになる。
例として、EUの一般データ保護規則(General Data Protection Regulation)からの規制要件の競合する解釈を評価します。
関連論文リスト
- C3PA: An Open Dataset of Expert-Annotated and Regulation-Aware Privacy Policies to Enable Scalable Regulatory Compliance Audits [7.1195014414194695]
C3PAは、専門家がアノテートしたプライバシポリシの最初の規制対応データセットである。
CCPA固有の開示義務に対する応答に関連する、専門家ラベル付きプライバシポリシテキストセグメントが48K以上含まれている。
論文 参考訳(メタデータ) (2024-10-04T21:04:39Z) - RegNLP in Action: Facilitating Compliance Through Automated Information Retrieval and Answer Generation [51.998738311700095]
その長さ、複雑さ、頻繁な更新を特徴とする規制文書は解釈が難しい。
RegNLPは、規制規則と義務のアクセスと解釈を簡素化することを目的とした、多分野のサブフィールドである。
ObliQAデータセットには、Abu Dhabi Global Markets (ADGM) からの27,869の質問が含まれている。
論文 参考訳(メタデータ) (2024-09-09T14:44:19Z) - LegiLM: A Fine-Tuned Legal Language Model for Data Compliance [5.256747140296861]
LegiLMは、データや情報コンプライアンスに関するコンサルティングに特化した、新しい法的言語モデルである。
特定のアクションやイベントがデータセキュリティとプライバシ規則に違反しているかどうかを自動的に評価するように調整されている。
LegiLMは、データ規制違反の検出、健全な法的正当性の提供、必要なコンプライアンス修正の推奨に優れています。
論文 参考訳(メタデータ) (2024-09-09T02:06:52Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - PrivComp-KG : Leveraging Knowledge Graph and Large Language Models for Privacy Policy Compliance Verification [0.0]
本稿では,プライバシコンプライアンスのためのLarge Language Model (LLM)とSemantic Webベースのアプローチを提案する。
PrivComp-KGは、プライバシーポリシーに関する包括的な情報を効率的に保存し、取り出すように設計されている。
各ベンダーが関連するポリシー規則に違反するプライバシーポリシーの遵守を確認するよう問い合わせることができる。
論文 参考訳(メタデータ) (2024-04-30T17:44:44Z) - A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Learning to Limit Data Collection via Scaling Laws: Data Minimization
Compliance in Practice [62.44110411199835]
我々は機械学習法における文献に基づいて、データとシステム性能を結びつけるデータ解釈に基づく収集を制限するフレームワークを提案する。
我々は、性能曲線微分に基づくデータ最小化基準を定式化し、有効かつ解釈可能な分数法法技術を提供する。
論文 参考訳(メタデータ) (2021-07-16T19:59:01Z) - Operationalizing the Legal Principle of Data Minimization for
Personalization [64.0027026050706]
データ最小化原理の同質な解釈が欠如していることを認識し、パーソナライゼーションの文脈に適用可能な2つの運用定義を探索する。
データ最小化によるパフォーマンス低下はそれほど大きくないかもしれないが、異なるユーザに影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-05-28T00:43:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。