論文の概要: Fair Play for Individuals, Foul Play for Groups? Auditing Anonymization's Impact on ML Fairness
- arxiv url: http://arxiv.org/abs/2505.07985v1
- Date: Mon, 12 May 2025 18:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.307473
- Title: Fair Play for Individuals, Foul Play for Groups? Auditing Anonymization's Impact on ML Fairness
- Title(参考訳): 個人のためのフェアプレイとグループのためのフールプレイ : 匿名化がMLフェアネスに与える影響について
- Authors: Héber H. Arcolezi, Mina Alishahi, Adda-Akram Bendoukha, Nesrine Kaaniche,
- Abstract要約: 匿名化技術は、個人を正確に識別することがより困難になる。
グループフェアネスの指標は最大4桁まで劣化させることができる。
個人の公正度は、より強い匿名化の下で改善する傾向がある。
この研究は、プライバシ、公正、ユーティリティ間のトレードオフに関する重要な洞察を提供する。
- 参考スコア(独自算出の注目度): 1.1999555634662633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) algorithms are heavily based on the availability of training data, which, depending on the domain, often includes sensitive information about data providers. This raises critical privacy concerns. Anonymization techniques have emerged as a practical solution to address these issues by generalizing features or suppressing data to make it more difficult to accurately identify individuals. Although recent studies have shown that privacy-enhancing technologies can influence ML predictions across different subgroups, thus affecting fair decision-making, the specific effects of anonymization techniques, such as $k$-anonymity, $\ell$-diversity, and $t$-closeness, on ML fairness remain largely unexplored. In this work, we systematically audit the impact of anonymization techniques on ML fairness, evaluating both individual and group fairness. Our quantitative study reveals that anonymization can degrade group fairness metrics by up to four orders of magnitude. Conversely, similarity-based individual fairness metrics tend to improve under stronger anonymization, largely as a result of increased input homogeneity. By analyzing varying levels of anonymization across diverse privacy settings and data distributions, this study provides critical insights into the trade-offs between privacy, fairness, and utility, offering actionable guidelines for responsible AI development. Our code is publicly available at: https://github.com/hharcolezi/anonymity-impact-fairness.
- Abstract(参考訳): 機械学習(ML)アルゴリズムは、トレーニングデータの可用性に大きく依存している。
これは重要なプライバシー上の懸念を引き起こす。
匿名化技術は、特徴を一般化したり、データを抑圧することで、個人を正確に識別することを困難にすることで、これらの問題に対処する実践的な解決策として現れてきた。
近年の研究では、プライバシ向上技術がさまざまなサブグループにわたるML予測に影響を与えることが示されているため、公正な意思決定に影響を与えることが示されているが、MLフェアネスに対する$k$匿名性、$\ell$-diversity、$t$-closenessといった匿名化テクニックの具体的な影響は、まだ明らかにされていない。
本研究では,匿名化手法がMLフェアネスに与える影響を系統的に評価し,個人とグループフェアネスの両方を評価する。
我々の定量的研究は、匿名化がグループフェアネスの指標を最大4桁まで劣化させることができることを示している。
逆に、類似度に基づく個人公正度尺度は、入力の均一性の増加の結果、より強い匿名化の下で改善される傾向にある。
この研究は、さまざまなプライバシー設定とデータ配布のさまざまなレベルの匿名化を分析することによって、プライバシ、公正性、ユーティリティ間のトレードオフに関する重要な洞察を与え、AI開発に責任を負うための実行可能なガイドラインを提供する。
私たちのコードは、https://github.com/hharcolezi/anonymity-impact-fairness.comで公開されています。
関連論文リスト
- A Systematic and Formal Study of the Impact of Local Differential Privacy on Fairness: Preliminary Results [5.618541935188389]
差分プライバシー(DP)は、プライバシ保護機械学習(ML)アルゴリズムの主要なソリューションである。
近年の研究では、ローカルDPが個人の異なるサブグループに対するML予測に影響を及ぼすことが示されている。
ローカルDPの下でのMLモデルによる決定の公平性は,プライバシやデータ分布の異なるレベルにおいてどのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-05-23T15:54:03Z) - (Local) Differential Privacy has NO Disparate Impact on Fairness [4.157415305926584]
ローカル微分プライバシー(LDP)は、現実世界のアプリケーションで広く採用されている。
本稿では,LPP下での複数属性の収集が公平性に及ぼす影響を実証研究する。
論文 参考訳(メタデータ) (2023-04-25T14:18:12Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - On the Privacy Risks of Algorithmic Fairness [9.429448411561541]
我々は、グループフェアネスのプライバシーリスクを、メンバーシップ推論攻撃のレンズを通して調査する。
公平さはプライバシーの犠牲であり、このコストは平等に分配されない。
論文 参考訳(メタデータ) (2020-11-07T09:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。