論文の概要: Does Privacy Always Harm Fairness? Data-Dependent Trade-offs via Chernoff Information Neural Estimation
- arxiv url: http://arxiv.org/abs/2601.13698v1
- Date: Tue, 20 Jan 2026 07:51:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.212136
- Title: Does Privacy Always Harm Fairness? Data-Dependent Trade-offs via Chernoff Information Neural Estimation
- Title(参考訳): プライバシーは常に公正を損なうか? チャーノフ情報ニューラル推定によるデータ依存トレードオフ
- Authors: Arjun Nichani, Hsiang Hsu, Chun-Fu, Chen, Haewon Jeong,
- Abstract要約: 我々は、情報理論の指標であるChernoff Informationを用いて、公正性、プライバシー、正確性の三者間の関係のデータ依存性を強調する。
この研究は、公平性とプライバシ-正確性関係の統一的な理解に向けて構築され、データ依存の性質を強調している。
- 参考スコア(独自算出の注目度): 26.62734824309754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness and privacy are two vital pillars of trustworthy machine learning. Despite extensive research on these individual topics, the relationship between fairness and privacy has received significantly less attention. In this paper, we utilize the information-theoretic measure Chernoff Information to highlight the data-dependent nature of the relationship among the triad of fairness, privacy, and accuracy. We first define Noisy Chernoff Difference, a tool that allows us to analyze the relationship among the triad simultaneously. We then show that for synthetic data, this value behaves in 3 distinct ways (depending on the distribution of the data). We highlight the data distributions involved in these cases and explore their fairness and privacy implications. Additionally, we show that Noisy Chernoff Difference acts as a proxy for the steepness of the fairness-accuracy curves. Finally, we propose a method for estimating Chernoff Information on data from unknown distributions and utilize this framework to examine the triad dynamic on real datasets. This work builds towards a unified understanding of the fairness-privacy-accuracy relationship and highlights its data-dependent nature.
- Abstract(参考訳): 公正性とプライバシは、信頼できる機械学習の2つの重要な柱である。
これらの個別のトピックに関する広範な研究にもかかわらず、公平性とプライバシの関係は著しく軽視されている。
本稿では,情報理論のChernoff Informationを用いて,公平性,プライバシ,正確性の三者間の関係の,データ依存性を強調する。
まず最初に、三者間の関係を同時に分析できるツールであるNoisy Chernoff differenceを定義します。
次に、合成データに対して、この値は(データの分布に依存する)3つの異なる方法で振る舞うことを示す。
これらのケースに関わるデータ配信を強調し、その公正さとプライバシーへの影響について検討する。
さらに、ノイシーチャーノフ差分は、フェアネス-精度曲線の急勾配の代用として機能することを示す。
最後に,未知分布のデータからChernoff情報を推定する手法を提案する。
この研究は、公平性とプライバシ-正確性関係の統一的な理解に向けて構築され、データ依存の性質を強調している。
関連論文リスト
- Information-theoretic Estimation of the Risk of Privacy Leaks [0.0]
データセット内のアイテム間の依存関係は、プライバシリークを引き起こす可能性がある。
本稿では,プライバシ侵害の可能性を示唆する指標として,元データとランダム化器からのノイズ応答の相関を計測する。
論文 参考訳(メタデータ) (2025-06-14T03:39:11Z) - Privacy-Preserving Dataset Combination [1.0485433579460999]
SecureKLは、プライバシリークをゼロとしたデータセットからデータセット評価のためのプロトコルである。
SecureKLはソースデータセットを候補に対して評価し、プライベートな計算で内部的にデータセット分散メトリクスを実行する。
現実世界のデータでは、SecureKLは高い一貫性(90%以上の非民間データとの相関関係)を実現し、有益なデータコラボレーションの特定に成功している。
論文 参考訳(メタデータ) (2025-02-09T03:54:17Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Differentially Private Data Release on Graphs: Inefficiencies and Unfairness [48.96399034594329]
本稿では,ネットワーク情報公開の文脈における偏見と不公平性に対する差別的プライバシの影響を特徴づける。
ネットワーク構造が全員に知られているネットワークリリースの問題を考えるが、エッジの重みをプライベートにリリースする必要がある。
我々の研究は、これらのネットワーク化された決定問題におけるプライバシーに起因する偏見と不公平性に関する理論的根拠と実証的な証拠を提供する。
論文 参考訳(メタデータ) (2024-08-08T08:37:37Z) - Causal Discovery Under Local Privacy [5.7835417207193585]
ローカル差分プライバシーは、データプロバイダが個別にデータに民営化メカニズムを適用できる変種である。
局所的差分的私的メカニズムをよく知られており、それらが提供するプライバシと、アルゴリズムが因果学習のために生成する因果構造の正確性とのトレードオフを比較検討する。
論文 参考訳(メタデータ) (2023-11-07T14:44:27Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Towards practical differentially private causal graph discovery [74.7791110594082]
因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-15T18:30:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。