論文の概要: Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey
- arxiv url: http://arxiv.org/abs/2202.08187v1
- Date: Wed, 16 Feb 2022 16:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 14:28:23.079777
- Title: Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey
- Title(参考訳): 意思決定と学習課題におけるプライバシーの相違と公平性:調査
- Authors: Ferdinando Fioretto, Cuong Tran, Pascal Van Hentenryck, Keyu Zhu
- Abstract要約: プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
- 参考スコア(独自算出の注目度): 50.90773979394264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper surveys recent work in the intersection of differential privacy
(DP) and fairness. It reviews the conditions under which privacy and fairness
may have aligned or contrasting goals, analyzes how and why DP may exacerbate
bias and unfairness in decision problems and learning tasks, and describes
available mitigation measures for the fairness issues arising in DP systems.
The survey provides a unified understanding of the main challenges and
potential risks arising when deploying privacy-preserving machine-learning or
decisions-making tasks under a fairness lens.
- Abstract(参考訳): 本稿では,差分プライバシ(DP)と公正性の交差に関する最近の研究について調査する。
プライバシと公正が目標に整合した、あるいは対比した条件をレビューし、意思決定問題や学習課題における偏見と不公平性をどのように悪化させるかを分析し、DPシステムで発生する公平性問題に対する緩和措置について説明する。
この調査は、プライバシ保護機械学習や意思決定タスクを公正レンズの下で展開する際の主な課題と潜在的なリスクについて、統一された理解を提供する。
関連論文リスト
- Explaining by Imitating: Understanding Decisions by Interpretable Policy
Learning [72.80902932543474]
観察されたデータから人間の行動を理解することは、意思決定における透明性と説明責任にとって重要である。
意思決定者の方針をモデル化することが困難である医療などの現実的な設定を考えてみましょう。
本稿では, 設計による透明性の向上, 部分観測可能性の確保, 完全にオフラインで動作可能なデータ駆動型意思決定行動の表現を提案する。
論文 参考訳(メタデータ) (2023-10-28T13:06:14Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Fairness and Sequential Decision Making: Limits, Lessons, and
Opportunities [24.471814126358556]
我々は、この文献の2つの主要なサブセットであるアルゴリズム的公正性と倫理的意思決定を比較し、議論する。
それぞれの設定が、その規範的関心事をどのように表現したか、これらの異なる設定に対する異なるテクニックの生存可能性、そして、それぞれの設定からのアイデアが他方にとってどのように有用であるかを考察する。
論文 参考訳(メタデータ) (2023-01-13T20:33:14Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Differentially Private Deep Learning under the Fairness Lens [34.28936739262812]
微分プライバシー(DP)は、プライベート機械学習システムにとって重要なプライバシー強化技術である。
計算に個々の参加に伴うリスクを計測し、バウンドすることができる。
近年,DP学習システムは,個人集団の偏見や不公平性を悪化させる可能性が指摘されている。
論文 参考訳(メタデータ) (2021-06-04T19:10:09Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - A survey of algorithmic recourse: definitions, formulations, solutions,
and prospects [24.615500469071183]
我々は、自動意思決定システムによって不当に扱われる個人に対して、説明とレコメンデーションを提供するアルゴリズムの講義に焦点をあてる。
我々は、広範な文献レビューを行い、統一された定義、定式化、言論への解決策を提示することで、多くの著者の努力を一致させます。
論文 参考訳(メタデータ) (2020-10-08T15:15:34Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。