論文の概要: FAIRPLAI: A Human-in-the-Loop Approach to Fair and Private Machine Learning
- arxiv url: http://arxiv.org/abs/2511.08702v1
- Date: Thu, 13 Nov 2025 01:02:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.197659
- Title: FAIRPLAI: A Human-in-the-Loop Approach to Fair and Private Machine Learning
- Title(参考訳): FAIRPLAI: 公正でプライベートな機械学習への人間中心のアプローチ
- Authors: David Sanchez, Holly Lopez, Michelle Buraczyk, Anantaa Kotal,
- Abstract要約: 機械学習システムの設計と展開に人間の監視を統合するフレームワークであるFAIRPLAIを紹介する。
Fair and Private Learning with Active Human Influenceは、人間の監視を機械学習システムの設計とデプロイに統合する。
Fairplaiは、常に強力なプライバシー保護を維持しながら、自動化されたベースラインに対する公正性の格差を減らしている。
- 参考スコア(独自算出の注目度): 0.09999629695552194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning systems move from theory to practice, they are increasingly tasked with decisions that affect healthcare access, financial opportunities, hiring, and public services. In these contexts, accuracy is only one piece of the puzzle - models must also be fair to different groups, protect individual privacy, and remain accountable to stakeholders. Achieving all three is difficult: differential privacy can unintentionally worsen disparities, fairness interventions often rely on sensitive data that privacy restricts, and automated pipelines ignore that fairness is ultimately a human and contextual judgment. We introduce FAIRPLAI (Fair and Private Learning with Active Human Influence), a practical framework that integrates human oversight into the design and deployment of machine learning systems. FAIRPLAI works in three ways: (1) it constructs privacy-fairness frontiers that make trade-offs between accuracy, privacy guarantees, and group outcomes transparent; (2) it enables interactive stakeholder input, allowing decision-makers to select fairness criteria and operating points that reflect their domain needs; and (3) it embeds a differentially private auditing loop, giving humans the ability to review explanations and edge cases without compromising individual data security. Applied to benchmark datasets, FAIRPLAI consistently preserves strong privacy protections while reducing fairness disparities relative to automated baselines. More importantly, it provides a straightforward, interpretable process for practitioners to manage competing demands of accuracy, privacy, and fairness in socially impactful applications. By embedding human judgment where it matters most, FAIRPLAI offers a pathway to machine learning systems that are effective, responsible, and trustworthy in practice. GitHub: https://github.com/Li1Davey/Fairplai
- Abstract(参考訳): 機械学習システムは理論から実践へと移行するにつれて、医療アクセス、金融機会、雇用、そして公共サービスに影響を与える決定にますます取り組まれている。
これらの文脈では、正確さはパズルの1つに過ぎず、モデルは異なるグループに対して公平で、個人のプライバシーを保護し、ステークホルダーに説明責任を負わなければならない。
差分プライバシーは意図しないほど格差を悪化させ、公平な介入はプライバシーが制限するセンシティブなデータに依存し、自動化されたパイプラインは、公正が究極的には人間的かつ文脈的な判断であることを無視する。
FAIRPLAI(Fair and Private Learning with Active Human Influence)は、人間の監視を機械学習システムの設計と展開に統合する実践的なフレームワークである。
FAIRPLAIは,(1)正確性,プライバシ保証,グループ成果のトレードオフを透過的に行うプライバシ・フェアネス・フロンティアを構築すること,(2)対話的利害関係者の入力を可能にし,意思決定者がドメインニーズを反映した公平性基準や運用ポイントを選択できること,(3)個人データセキュリティを損なうことなく説明やエッジケースのレビューを行うことができること,の3つの方法で機能する。
ベンチマークデータセットに適用されたFAIRPLAIは、強力なプライバシ保護を一貫して保持するとともに、自動化ベースラインに対する公正性の違いを低減します。
さらに重要なのは、ソーシャルに影響力のあるアプリケーションにおいて、実践者が競合する正確性、プライバシー、公正性の要求を管理するための、単純で解釈可能なプロセスを提供することだ。
人間の判断を最も重要な場所に埋め込むことによって、FAIRPLAIは、実践において効果的で責任があり、信頼に値する機械学習システムへの経路を提供する。
GitHub: https://github.com/Li1Davey/Fairplai
関連論文リスト
- Accurate Target Privacy Preserving Federated Learning Balancing Fairness and Utility [28.676852732262407]
フェデレートラーニング(FL)は、データ共有なしで協調的なモデルトレーニングを可能にする。
我々は、この多目的最適化をゼロサムゲームに変換する微分プライベートフェアFLアルゴリズムを導入する。
我々の理論的分析は、驚くべき逆関係、すなわちより厳格なプライバシー保護が、人口統計バイアスを検出し修正するシステムの能力を制限していることを示している。
論文 参考訳(メタデータ) (2025-10-30T07:14:55Z) - Empirical Analysis of Privacy-Fairness-Accuracy Trade-offs in Federated Learning: A Step Towards Responsible AI [6.671649946926508]
フェデレーテッド・ラーニング(FL)におけるプライバシ・フェアネス・ユーティリティ・トレードオフに関する大規模な実証的研究について紹介する。
フェアネス・アウェアと差分プライバシー(DP)、同相暗号化(HE)、セキュアマルチパーティ暗号化(SMC)を比較した。
DPメカニズムは、公平性、歪み、公平性に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2025-03-20T15:31:01Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - A Three-Way Knot: Privacy, Fairness, and Predictive Performance Dynamics [2.9005223064604078]
最も重要な問題の2つは、公正性とデータのプライバシーである。
プライバシ、公平性、予測パフォーマンスのバランスは複雑です。
この3方向の張力と各ベクトルの最適化が他に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-27T15:46:22Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Differential Privacy and Fairness in Decisions and Learning Tasks: A
Survey [50.90773979394264]
プライバシーと公正が目標と一致したり、対照的になったりした条件をレビューする。
意思決定問題や学習タスクにおいて、DPが偏見や不公平を悪化させる理由と理由を分析します。
論文 参考訳(メタデータ) (2022-02-16T16:50:23Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。