論文の概要: The Impact of Generalization Techniques on the Interplay Among Privacy, Utility, and Fairness in Image Classification
- arxiv url: http://arxiv.org/abs/2412.11951v1
- Date: Mon, 16 Dec 2024 16:35:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:00:13.398227
- Title: The Impact of Generalization Techniques on the Interplay Among Privacy, Utility, and Fairness in Image Classification
- Title(参考訳): 画像分類における一般化手法がプライバシ・ユーティリティ・フェアネスの相互作用に及ぼす影響
- Authors: Ahmad Hassanpour, Amir Zarei, Khawla Mallat, Anderson Santana de Oliveira, Bian Yang,
- Abstract要約: 近年の研究では、一般化技術はプライバシとユーティリティのバランスを改善することが示唆されている。
合成および実世界のバイアスのあるデータセットで訓練されたプライベートおよび非プライベート学習モデルの公平性を検証した。
我々は、正確さ、プライバシー、公平さを1つの尺度に組み合わせた、新しい測度、"Emphharmonic score"を導入する。
- 参考スコア(独自算出の注目度): 2.271910267215261
- License:
- Abstract: This study investigates the trade-offs between fairness, privacy, and utility in image classification using machine learning (ML). Recent research suggests that generalization techniques can improve the balance between privacy and utility. One focus of this work is sharpness-aware training (SAT) and its integration with differential privacy (DP-SAT) to further improve this balance. Additionally, we examine fairness in both private and non-private learning models trained on datasets with synthetic and real-world biases. We also measure the privacy risks involved in these scenarios by performing membership inference attacks (MIAs) and explore the consequences of eliminating high-privacy risk samples, termed outliers. Moreover, we introduce a new metric, named \emph{harmonic score}, which combines accuracy, privacy, and fairness into a single measure. Through empirical analysis using generalization techniques, we achieve an accuracy of 81.11\% under $(8, 10^{-5})$-DP on CIFAR-10, surpassing the 79.5\% reported by De et al. (2022). Moreover, our experiments show that memorization of training samples can begin before the overfitting point, and generalization techniques do not guarantee the prevention of this memorization. Our analysis of synthetic biases shows that generalization techniques can amplify model bias in both private and non-private models. Additionally, our results indicate that increased bias in training data leads to reduced accuracy, greater vulnerability to privacy attacks, and higher model bias. We validate these findings with the CelebA dataset, demonstrating that similar trends persist with real-world attribute imbalances. Finally, our experiments show that removing outlier data decreases accuracy and further amplifies model bias.
- Abstract(参考訳): 本研究では,機械学習(ML)を用いた画像分類における公平性,プライバシ,ユーティリティのトレードオフについて検討する。
近年の研究では、一般化技術はプライバシとユーティリティのバランスを改善することが示唆されている。
この研究の焦点は、シャープネス・アウェア・トレーニング(SAT)と、このバランスを改善するために差分プライバシー(DP-SAT)との統合である。
さらに、合成および実世界の偏りのあるデータセットで訓練されたプライベートおよび非プライベート学習モデルの公平性について検討する。
また、これらのシナリオにかかわるプライバシーリスクを、メンバーシップ推論アタック(MIA)によって測定し、高プライバシリスクサンプルの除去の結果を調査する。
さらに,精度,プライバシ,公平性を1つの尺度に組み合わせた新しい測定基準「emph{harmonic score}」を導入する。
一般化手法を用いた実証分析により, CIFAR-10 において 81.11\% の精度を 8, 10^{-5})$-DP で達成し, De et al (2022) で報告された 79.5\% を上回った。
さらに,本実験では,トレーニングサンプルの記憶はオーバーフィッティング点より先に開始でき,一般化技術はこの記憶の防止を保証していない。
合成バイアスの解析は、一般化技術が、プライベートモデルと非プライベートモデルの両方においてモデルバイアスを増幅できることを示している。
さらに,トレーニングデータのバイアスの増加は,精度の低下,プライバシ攻撃に対する脆弱性の増大,モデルバイアスの増大につながることが示唆された。
これらの知見をCelebAデータセットで検証し、同様の傾向が現実世界の属性の不均衡に持続することを示した。
最後に, 実験の結果, 外部データの除去は精度を低下させ, さらにモデルバイアスを増幅することがわかった。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Privacy-Preserving Debiasing using Data Augmentation and Machine Unlearning [3.049887057143419]
データ拡張は、メンバシップ推論攻撃のようなプライバシ攻撃に機械学習モデルを公開する。
我々は、既知の攻撃に対して証明可能な防御を提供しながら、データのバイアスを低減することができるデータ強化と機械学習の効果的な組み合わせを提案する。
論文 参考訳(メタデータ) (2024-04-19T21:54:20Z) - Memory Consistency Guided Divide-and-Conquer Learning for Generalized
Category Discovery [56.172872410834664]
一般カテゴリー発見(GCD)は、半教師付き学習のより現実的で挑戦的な設定に対処することを目的としている。
メモリ一貫性を誘導する分枝・分枝学習フレームワーク(MCDL)を提案する。
本手法は,画像認識の目に見えるクラスと見えないクラスの両方において,最先端のモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-24T09:39:45Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - Assaying Out-Of-Distribution Generalization in Transfer Learning [103.57862972967273]
私たちは、経験的に対処するメッセージの相違を強調して、以前の作業の統一的なビューを取ります。
私たちは9つの異なるアーキテクチャから、多数の、あるいは少数の設定で31K以上のネットワークを微調整しました。
論文 参考訳(メタデータ) (2022-07-19T12:52:33Z) - Fair Visual Recognition in Limited Data Regime using Self-Supervision
and Self-Distillation [31.386413758098243]
我々は、モデルに対するバイアスの影響を低減するために、自己超越と自己蒸留に適応する。
実験によって、我々のアプローチはモデルで学んだバイアスを大幅に削減できることを示した。
提案手法は, 性能を著しく向上させ, 限られたデータ構造におけるモデルバイアスを低減させる。
論文 参考訳(メタデータ) (2021-06-30T19:22:46Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。