論文の概要: Fairness for Image Generation with Uncertain Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2106.12182v1
- Date: Wed, 23 Jun 2021 06:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-24 22:13:27.966506
- Title: Fairness for Image Generation with Uncertain Sensitive Attributes
- Title(参考訳): 不確かさ属性による画像生成の公正性
- Authors: Ajil Jalal and Sushrut Karmalkar and Jessica Hoffmann and Alexandros
G. Dimakis and Eric Price
- Abstract要約: この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
- 参考スコア(独自算出の注目度): 97.81354305427871
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work tackles the issue of fairness in the context of generative
procedures, such as image super-resolution, which entail different definitions
from the standard classification setting. Moreover, while traditional group
fairness definitions are typically defined with respect to specified protected
groups -- camouflaging the fact that these groupings are artificial and carry
historical and political motivations -- we emphasize that there are no ground
truth identities. For instance, should South and East Asians be viewed as a
single group or separate groups? Should we consider one race as a whole or
further split by gender? Choosing which groups are valid and who belongs in
them is an impossible dilemma and being ``fair'' with respect to Asians may
require being ``unfair'' with respect to South Asians. This motivates the
introduction of definitions that allow algorithms to be \emph{oblivious} to the
relevant groupings.
We define several intuitive notions of group fairness and study their
incompatibilities and trade-offs. We show that the natural extension of
demographic parity is strongly dependent on the grouping, and \emph{impossible}
to achieve obliviously. On the other hand, the conceptually new definition we
introduce, Conditional Proportional Representation, can be achieved obliviously
through Posterior Sampling. Our experiments validate our theoretical results
and achieve fair image reconstruction using state-of-the-art generative models.
- Abstract(参考訳): 本研究は、画像超解像などの生成手順の文脈における公平性の問題に対処し、標準分類設定と異なる定義を包含する。
さらに、伝統的グループフェアネスの定義は、通常、指定された保護されたグループ(これらのグループ化が人工的であり、歴史的、政治的モチベーションを担っているという事実を象徴する)に関して定義されるが、本質的な真理の同一性は存在しないことを強調する。
例えば、南アジアと東アジアは一つのグループか別々のグループと見なされるべきか?
ひとつの人種を全体、あるいはさらに性別によって分割すべきだろうか?
どの集団が有効で、どのグループに属しているかを決めることは不可能なジレンマであり、アジア人に関して「フェア」であることは、南アジア人に対して「アンフェア」であることを必要とするかもしれない。
これにより、関連するグルーピングに対してアルゴリズムが \emph{oblivious} となるような定義が導入される。
グループフェアネスの直感的な概念を定義し、不整合性とトレードオフを研究する。
統計学的パリティの自然な拡張はグループ化に強く依存しており、<emph{impossible} は必然的に達成できることを示した。
一方、概念的に新しい定義である条件付き比例表現は、後サンプリングによって明確化することができる。
実験は, 最新の生成モデルを用いて, 理論結果の検証を行い, 公平な画像再構成を実現する。
関連論文リスト
- Perceptual Fairness in Image Restoration [34.50287066865267]
グループ知覚指数(グループ知覚指数、GPI)は、グループの基底真理像の分布とそれらの再構成の分布の間の統計的距離である。
異なるグループのGPIを比較してアルゴリズムの公平性を評価し、全てのグループのGPIが同一であれば、パーセプティカルフェアネス(PF)が完璧であることを示す。
論文 参考訳(メタデータ) (2024-05-22T16:32:20Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Characterization of Group-Fair Social Choice Rules under Single-Peaked
Preferences [0.5161531917413706]
社会的選択設定における公平さを、単一話者の嗜好の下で研究する。
グループフェアネスを満足するランダムな社会的選択ルールを2つの別々に評価する。
論文 参考訳(メタデータ) (2022-07-16T17:12:54Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。