論文の概要: From Statistical Disclosure Control to Fair AI: Navigating Fundamental Tradeoffs in Differential Privacy
- arxiv url: http://arxiv.org/abs/2601.17909v1
- Date: Sun, 25 Jan 2026 17:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.527371
- Title: From Statistical Disclosure Control to Fair AI: Navigating Fundamental Tradeoffs in Differential Privacy
- Title(参考訳): 統計的開示制御から公正なAIへ - 差分プライバシーにおける基本的なトレードオフをナビゲートする
- Authors: Adriana Watson,
- Abstract要約: 差別化プライバシは、プライバシ保護機械学習システムのゴールドスタンダードとなっている。
本稿では,3つのスレッドを接続する体系的処理を行う: セマンティックプライバシに対するダレニウスの不合理性, 達成可能な代替手段としてのDworkの差分プライバシー, 公平性要件の追加による創発的不合理性結果。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy has become the gold standard for privacy-preserving machine learning systems. Unfortunately, subsequent work has primarily fixated on the privacy-utility tradeoff, leaving the subject of fairness constraints undervalued and under-researched. This paper provides a systematic treatment connecting three threads: (1) Dalenius's impossibility results for semantic privacy, (2) Dwork's differential privacy as an achievable alternative, and (3) emerging impossibility results from the addition of a fairness requirement. Through concrete examples and technical analysis, the three-way Pareto frontier between privacy, utility, and fairness is demonstrated to showcase the fundamental limits on what can be simultaneously achieved. In this work, these limits are characterized, the impact on minority groups is demonstrated, and practical guidance for navigating these tradeoffs are provided. This forms a unified framework synthesizing scattered results to help practitioners and policymakers make informed decisions when deploying private fair learning systems.
- Abstract(参考訳): 差別化プライバシは、プライバシ保護機械学習システムのゴールドスタンダードとなっている。
残念ながら、その後の作業は主にプライバシとユーティリティのトレードオフに固執しており、公平性に関する制約が過小評価され、調査が過小評価されている。
本稿では,(1)意味的プライバシーに対するダレニウスの不合理性結果,(2)達成可能な代替手段としてのDworkの差分プライバシー,(3)公正性要件の追加による不合理性結果,の3つのスレッドを接続する体系的処理について述べる。
具体的な例と技術的分析を通じて、プライバシ、ユーティリティ、公平性の3方向のParetoフロンティアは、同時に達成できることの基本的な限界を示す。
本研究は,これらの限界を特徴とし,少数派に対する影響を示し,これらのトレードオフをナビゲートするための実践的ガイダンスを提供する。
これは分散結果を合成する統一的なフレームワークを形成し、実践者や政策立案者がプライベートフェアラーニングシステムをデプロイする際の情報的意思決定を支援する。
関連論文リスト
- Fairness Meets Privacy: Integrating Differential Privacy and Demographic Parity in Multi-class Classification [6.28122931748758]
差分プライバシーは、公平性保証に最小限の影響を与える公平性向上パイプラインに統合可能であることを示す。
我々はDP2DPと呼ばれるポストプロセッシングアルゴリズムを設計し、人口統計と差分プライバシーの両方を強制する。
分析の結果,我々のアルゴリズムは,文献から得られる最良な非私的手法と基本的に同じ割合で,その人口的平等目標に向かって収束していることが判明した。
論文 参考訳(メタデータ) (2025-11-24T08:31:02Z) - FAIRPLAI: A Human-in-the-Loop Approach to Fair and Private Machine Learning [0.09999629695552194]
機械学習システムの設計と展開に人間の監視を統合するフレームワークであるFAIRPLAIを紹介する。
Fair and Private Learning with Active Human Influenceは、人間の監視を機械学習システムの設計とデプロイに統合する。
Fairplaiは、常に強力なプライバシー保護を維持しながら、自動化されたベースラインに対する公正性の格差を減らしている。
論文 参考訳(メタデータ) (2025-11-11T19:07:46Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Democratizing Differential Privacy: A Participatory AI Framework for Public Decision-Making [2.1967674611287444]
本稿では,パブリックセクターアプリケーションにおけるAIシステムの参加型設計を可能にする対話型インタフェースシステムを提案する。
我々の研究は、対話インタフェースがアルゴリズムのプライバシメカニズムにおける公的なエンゲージメントをいかに向上させるかを示すことによって、参加型AIの実践を前進させる。
論文 参考訳(メタデータ) (2025-04-30T04:10:50Z) - Differential Privacy Overview and Fundamental Techniques [63.0409690498569]
この章は、"Differential Privacy in Artificial Intelligence: From Theory to Practice"という本の一部である。
まず、データのプライバシ保護のためのさまざまな試みについて説明し、その失敗の場所と理由を強調した。
次に、プライバシ保護データ分析の領域を構成する重要なアクター、タスク、スコープを定義する。
論文 参考訳(メタデータ) (2024-11-07T13:52:11Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Centering Policy and Practice: Research Gaps around Usable Differential Privacy [12.340264479496375]
我々は、差分プライバシーは理論上はクリーンな定式化であるが、実際は重大な課題を提起していると論じている。
差分プライバシーの約束と現実世界のユーザビリティのギャップを埋めるために、研究者と実践者は協力しなければなりません。
論文 参考訳(メタデータ) (2024-06-17T21:32:30Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy and Bias Analysis of Disclosure Avoidance Systems [45.645473465606564]
情報開示回避システム(DA)は、データの機密性を保護し、分析目的で分析および散布を可能にする。
本稿では、これらのメカニズムの異なるプライベートバージョンを提案し、それらのプライバシー境界を導出する、このギャップに対処するフレームワークを提案する。
その結果、一般的な信念とは対照的に、従来の差分プライバシー技術は、広く使われているDA機構の差分プライバシー技術よりも正確性と公平性に優れている可能性が示唆された。
論文 参考訳(メタデータ) (2023-01-28T13:58:25Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。