論文の概要: Legally Binding but Unfair? Towards Assessing Fairness of Privacy Policies
- arxiv url: http://arxiv.org/abs/2403.08115v2
- Date: Wed, 8 May 2024 14:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 16:34:07.195581
- Title: Legally Binding but Unfair? Towards Assessing Fairness of Privacy Policies
- Title(参考訳): 法的拘束は不公平か? プライバシポリシーの公正性を評価するために
- Authors: Vincent Freiberger, Erik Buchmann,
- Abstract要約: プライバシーポリシーは、データ保護の権利についてデータ被験者に通知し、データ管理の実践を説明することが期待されている。
これは、プライバシーポリシーが公正な方法で書かれており、例えば、分極項を使用しない、特定の教育を必要としない、あるいは特定の社会的背景を仮定しない、といったことを意味している。
我々は,基本的法的資料と公正性研究から,情報的公正性,表現的公正性,倫理的・道徳性がプライバシポリシにどのように関係しているかを識別する。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy policies are expected to inform data subjects about their data protection rights and should explain the data controller's data management practices. Privacy policies only fulfill their purpose, if they are correctly interpreted, understood, and trusted by the data subject. This implies that a privacy policy is written in a fair way, e.g., it does not use polarizing terms, does not require a certain education, or does not assume a particular social background. We outline our approach to assessing fairness in privacy policies. We identify from fundamental legal sources and fairness research, how the dimensions informational fairness, representational fairness and ethics / morality are related to privacy policies. We propose options to automatically assess policies in these fairness dimensions, based on text statistics, linguistic methods and artificial intelligence. We conduct initial experiments with German privacy policies to provide evidence that our approach is applicable. Our experiments indicate that there are issues in all three dimensions of fairness. This is important, as future privacy policies may be used in a corpus for legal artificial intelligence models.
- Abstract(参考訳): プライバシポリシは、データ保護の権利についてデータ主題に通知し、データコントローラのデータ管理プラクティスを説明することが期待される。
プライバシポリシは、データ主題によって正しく解釈され、理解され、信頼されている場合にのみ、その目的を果たす。
これは、プライバシーポリシーが公正な方法で書かれており、例えば、分極項を使用しない、特定の教育を必要としない、あるいは特定の社会的背景を仮定しない、といったことを意味している。
プライバシーポリシーの公平性を評価するためのアプローチの概要を概説する。
我々は,基本的法的資料と公正性研究から,情報的公正性,表現的公正性,倫理的・道徳性がプライバシポリシにどのように関係しているかを識別する。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
我々は、我々のアプローチが適用可能であることを示す証拠を提供するために、ドイツのプライバシーポリシーで最初の実験を行う。
我々の実験は、公平性の3つの次元に問題があることを示唆している。
将来のプライバシーポリシーは、法的な人工知能モデルのコーパスで使用される可能性があるため、これは重要である。
関連論文リスト
- Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - The Privacy Policy Permission Model: A Unified View of Privacy Policies [0.5371337604556311]
プライバシポリシ(英: privacy policy)とは、組織がどのようにクライアントのデータを収集し、利用し、開示し、保持するかを指定するステートメントのセットである。
ほとんどのプライバシポリシには、データプロバイダの情報の使用方法に関する明確で完全な説明が欠けている。
本稿では,プライバシーポリシーの統一的かつ理解しやすい表現を提供するプライバシポリシ許可モデル(PPPM)を提案する。
論文 参考訳(メタデータ) (2024-03-26T06:12:38Z) - SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - OPPO: An Ontology for Describing Fine-Grained Data Practices in Privacy Policies of Online Social Networks [0.8287206589886879]
OPPO Social Networks(OSNS)のデータプラクティスは、EUやCCPAなどのプライバシー規制に準拠している。
本稿は,OSNSから詳細なプラクティスを形式化し,ギャップを埋めることを目的とした,OSNSのプライバシポリシに関するOn-Nology for Privacy Policiesを提案する。
論文 参考訳(メタデータ) (2023-09-27T19:42:05Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Privacy Policies Across the Ages: Content and Readability of Privacy
Policies 1996--2021 [1.5229257192293197]
透明性研究、機械学習、自然言語処理の手法を用いて、プライバシーポリシーの25年の歴史を分析した。
1996年から2021年までの大規模なプライバシーポリシーの長期コーパスを収集する。
我々の結果は、特に新しい規制が施行された後、政策が長く読みにくくなっていることを示している。
論文 参考訳(メタデータ) (2022-01-21T15:13:02Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Detecting Compliance of Privacy Policies with Data Protection Laws [0.0]
プライバシーポリシーは、しばしば理解が難しい広範囲の法的用語で書かれる。
我々は、さまざまなデータ保護法に基づきプライバシーポリシーを分析するフレームワークを提供することで、このギャップを埋めることを目指している。
このようなツールを使用することで、ユーザーは自分の個人データがどのように管理されているかを理解することができます。
論文 参考訳(メタデータ) (2021-02-21T09:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。