論文の概要: Equalized Generative Treatment: Matching f-divergences for Fairness in Generative Models
- arxiv url: http://arxiv.org/abs/2602.08660v1
- Date: Mon, 09 Feb 2026 13:52:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.255728
- Title: Equalized Generative Treatment: Matching f-divergences for Fairness in Generative Models
- Title(参考訳): 等化生成処理:f-divergences とf-divergences の一致による生成モデルの公平性
- Authors: Alexandre Verine, Rafael Pinot, Florian Le Bronnec,
- Abstract要約: 等化生成処理(EGT)と呼ばれる生成モデルに対する新しいフェアネス定義を導入する。
EGTはすべてのセンシティブなグループに匹敵する生成品質を必要とし、基準f分割によって測定される。
文献から得られた他の手法と比較して,min-max法はより公平な結果が得られることを示す。
- 参考スコア(独自算出の注目度): 49.094293060279675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness is a crucial concern for generative models, which not only reflect but can also amplify societal and cultural biases. Existing fairness notions for generative models are largely adapted from classification and focus on balancing the probability of generating samples from each sensitive group. We show that such criteria are brittle, as they can be met even when different sensitive groups are modeled with widely varying quality. To address this limitation, we introduce a new fairness definition for generative models, termed as equalized generative treatment (EGT), which requires comparable generation quality across all sensitive groups, with quality measured via a reference f-divergence. We further analyze the trade-offs induced by EGT, demonstrating that enforcing fairness constraints necessarily couples the overall model quality to that of the most challenging group to approximate. This indicates that a simple yet efficient min-max fine-tuning method should be able to balance f-divergences across sensitive groups to satisfy EGT. We validate this theoretical insight through a set of experiments on both image and text generation tasks. We demonstrate that min-max methods consistently achieve fairer outcomes compared to other approaches from the literature, while maintaining competitive overall performance for both tasks.
- Abstract(参考訳): 公正性は生成モデルにとって重要な関心事であり、それは単に反映するだけでなく、社会的・文化的偏見を増幅することもできる。
生成モデルの既存の公平性の概念は、主に分類と、各センシティブなグループからサンプルを生成する確率のバランスに焦点が当てられている。
このような基準は、異なるセンシティブなグループが様々な品質でモデル化されている場合でも満たされるので、不安定であることを示す。
この制限に対処するために、我々は、全てのセンシティブなグループに匹敵する生成品質を要求され、参照f分割によって測定される、等化生成処理(EGT)と呼ばれる生成モデルに対する新しい公平性定義を導入する。
さらに、EGTが引き起こしたトレードオフを分析し、公平性制約を強制することは、必ずしもモデル品質を最も難しいグループのものと一致させることを示した。
このことは、単純で効率的な min-max 微調整法は、EGT を満たすために、感度群間で f-分枝のバランスをとることができることを示唆している。
画像生成タスクとテキスト生成タスクの両方に関する一連の実験を通して、この理論的知見を検証する。
両課題の総合的な性能を維持しつつ, 文献による他の手法と比較して, min-max法は一貫して公平な結果が得られることを示した。
関連論文リスト
- On the use of graph models to achieve individual and group fairness [0.6299766708197883]
我々は、動的システムとホモロジーに基づくツールを活用して公平性をモデル化するための、せん断拡散に基づく理論的枠組みを提供する。
本稿では,異なる公平度尺度を扱うネットワークトポロジの集合について述べる。
本稿では,提案モデルの性能を,精度と公平性の観点から示す。
論文 参考訳(メタデータ) (2026-01-13T18:17:43Z) - SONA: Learning Conditional, Unconditional, and Mismatching-Aware Discriminator [54.562217603802075]
帰納的バイアスを伴う最終層において,自然性(美容性)とアライメントを別々に投影するSONA(Sum of Naturalness and Alignment)を導入する。
クラス条件生成タスクの実験により、SONAは最先端の手法に比べて優れたサンプル品質と条件アライメントを達成することが示された。
論文 参考訳(メタデータ) (2025-10-06T08:26:06Z) - FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Equi-Tuning: Group Equivariant Fine-Tuning of Pretrained Models [56.88106830869487]
我々は、(潜在的に非同変な)事前訓練されたモデルを群同変モデルに変換する新しい微調整法である、同調を導入する。
本稿では、画像分類、合成言語における一般化、自然言語生成における公平性という3つの異なるタスクに対する等価チューニングの応用について述べる。
論文 参考訳(メタデータ) (2022-10-13T08:45:23Z) - RepFair-GAN: Mitigating Representation Bias in GANs Using Gradient
Clipping [2.580765958706854]
生成モデルに対する新しい公平性の概念を、同じ保護属性を共有する生成されたサンプルの分布の観点から定義する。
この公平性の概念は、データセットが等しく表現されたグループを含む場合でも破られることを示す。
判別器におけるグループワイド勾配ノルムクリッピングにより群勾配ノルムを制御することにより,より公正なデータ生成につながることを示す。
論文 参考訳(メタデータ) (2022-07-13T14:58:48Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。