論文の概要: Legally Binding but Unfair? Towards Assessing Fairness of Privacy
Policies
- arxiv url: http://arxiv.org/abs/2403.08115v1
- Date: Tue, 12 Mar 2024 22:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:22:40.571955
- Title: Legally Binding but Unfair? Towards Assessing Fairness of Privacy
Policies
- Title(参考訳): 法的拘束は不公平か?プライバシの公正性を評価するために
政策
- Authors: Vincent Freiberger, Erik Buchmann
- Abstract要約: 本稿では,プライバシポリシの公平性を評価するためのアプローチについて概説する。
我々は、基本的な法的根拠と公正性の研究から、情報的公正性、表現的公正性、倫理/道徳がプライバシーポリシーとどのように関係しているかを識別する。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Privacy policies are expected to inform data subjects about their data
protection rights. They should explain the data controller's data management
practices, and make facts such as retention periods or data transfers to third
parties transparent. Privacy policies only fulfill their purpose, if they are
correctly perceived, interpreted, understood, and trusted by the data subject.
Amongst others, this requires that a privacy policy is written in a fair way,
e.g., it does not use polarizing terms, does not require a certain education,
or does not assume a particular social background. In this work-in-progress
paper, we outline our approach to assessing fairness in privacy policies. To
this end, we identify from fundamental legal sources and fairness research, how
the dimensions informational fairness, representational fairness and
ethics/morality are related to privacy policies. We propose options to
automatically assess policies in these fairness dimensions, based on text
statistics, linguistic methods and artificial intelligence. Finally, we conduct
initial experiments with German privacy policies to provide evidence that our
approach is applicable. Our experiments indicate that there are indeed issues
in all three dimensions of fairness. For example, our approach finds out if a
policy discriminates against individuals with impaired reading skills or
certain demographics, and identifies questionable ethics. This is important, as
future privacy policies may be used in a corpus for legal artificial
intelligence models.
- Abstract(参考訳): プライバシーポリシーは、データ保護の権利についてデータ被験者に通知することが期待されている。
データコントローラのデータ管理のプラクティスを説明し、保持期間やサードパーティへのデータ転送などの事実を透過的にするべきです。
プライバシーポリシーは、データ主体によって正しく認識され、解釈され、理解され、信頼されている場合にのみ、彼らの目的を満たす。
中でも、プライバシーポリシーは公正な方法で書かれ、例えば、分極項を使わない、特定の教育を必要としない、あるいは特定の社会的背景を想定しないといったことが要求される。
本稿では,プライバシポリシの公平性を評価するためのアプローチについて概説する。
この目的のために, 基本的法的資料と公正性調査から, 情報公正性, 表現公正性, 倫理的・道徳的側面が, プライバシポリシーとどのように関係しているかを明らかにする。
テキスト統計,言語学的手法,人工知能に基づいて,これらの公平度次元におけるポリシーを自動評価するオプションを提案する。
最後に、我々のアプローチが適用可能であることを示す証拠を提供するために、ドイツのプライバシーポリシーで最初の実験を行う。
実験の結果,3次元の公平性には問題があることが示唆された。
例えば,本手法は,読解能力に障害のある個人や特定の人口層に対して,政策が差別されているかどうかを判断し,問題のある倫理を識別する。
将来のプライバシーポリシーは、法的な人工知能モデルのコーパスで使用される可能性があるため、これは重要である。
関連論文リスト
- SoK: The Gap Between Data Rights Ideals and Reality [46.14715472341707]
権利に基づくプライバシー法は、個人が自分のデータよりも効果的に権限を与えるのか?
本稿では,実証研究,ニュース記事,ブログ記事をレビューすることで,これらのアプローチを精査する。
論文 参考訳(メタデータ) (2023-12-03T21:52:51Z) - PLUE: Language Understanding Evaluation Benchmark for Privacy Policies
in English [77.79102359580702]
プライバシポリシ言語理解評価ベンチマークは,プライバシポリシ言語理解を評価するマルチタスクベンチマークである。
また、プライバシポリシの大規模なコーパスを収集し、プライバシポリシドメイン固有の言語モデル事前トレーニングを可能にします。
ドメイン固有の連続的な事前トレーニングは、すべてのタスクでパフォーマンスを改善することを実証します。
論文 参考訳(メタデータ) (2022-12-20T05:58:32Z) - Exploring Consequences of Privacy Policies with Narrative Generation via
Answer Set Programming [0.0]
プライバシポリシの形式化にAnswer Set Programming(ASP)を使用するフレームワークを提案する。
ASP.NETは、エンドユーザがアクターの観点からポリシーの結果を前方にシミュレートすることを可能にする。
本稿では,健康保険の可搬性と説明責任法(Health Insurance Portability and Accountability Act)の事例を通じて,様々な方法でシステムを利用する方法を紹介する。
論文 参考訳(メタデータ) (2022-12-13T16:44:46Z) - How to keep text private? A systematic review of deep learning methods
for privacy-preserving natural language processing [0.38073142980732994]
記事は2016年から2020年にかけて発行されたプライバシー保護NLPに関する60以上の方法を体系的にレビューしている。
本稿では,既存の手法を3つのカテゴリに分類する新しい分類法を提案する。
我々は、データトレーサビリティ、オーバーヘッドデータセットサイズ、埋め込みにおける人間のバイアスの頻度に関するプライバシー保護NLPのオープンな課題について論じる。
論文 参考訳(メタデータ) (2022-05-20T11:29:44Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Privacy Policies Across the Ages: Content and Readability of Privacy
Policies 1996--2021 [1.5229257192293197]
透明性研究、機械学習、自然言語処理の手法を用いて、プライバシーポリシーの25年の歴史を分析した。
1996年から2021年までの大規模なプライバシーポリシーの長期コーパスを収集する。
我々の結果は、特に新しい規制が施行された後、政策が長く読みにくくなっていることを示している。
論文 参考訳(メタデータ) (2022-01-21T15:13:02Z) - Semantics-Preserved Distortion for Personal Privacy Protection [48.69930912510414]
クライアントデバイスでは、ユーザによって毎日、個人情報を含む大量のテキストが生成される。
フェデレートラーニング(Federated Learning)では、クライアントデバイスの生の情報から中心モデルをブロックする多くの方法が提案されている。
本稿では,意味を保ちながらテキストを歪ませることで,より言語的にこれを行おうとする。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Detecting Compliance of Privacy Policies with Data Protection Laws [0.0]
プライバシーポリシーは、しばしば理解が難しい広範囲の法的用語で書かれる。
我々は、さまざまなデータ保護法に基づきプライバシーポリシーを分析するフレームワークを提供することで、このギャップを埋めることを目指している。
このようなツールを使用することで、ユーザーは自分の個人データがどのように管理されているかを理解することができます。
論文 参考訳(メタデータ) (2021-02-21T09:15:15Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - A Philosophy of Data [91.3755431537592]
我々は、統計計算に必要な基本特性から統計データの定義まで研究する。
我々は、有用なデータの必要性は、プロパティを根本的にユニークか等しく理解することを規則化する必要があると論じている。
データとデータ技術への依存度が高まるにつれて、この2つの特徴は現実の集合概念に影響を与えます。
論文 参考訳(メタデータ) (2020-04-15T14:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。