論文の概要: Fairness in generative modeling
- arxiv url: http://arxiv.org/abs/2210.03517v1
- Date: Thu, 6 Oct 2022 06:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:32:40.385685
- Title: Fairness in generative modeling
- Title(参考訳): 生成モデルにおける公正性
- Authors: Mariia Zameshina (LIGM, FAIR), Olivier Teytaud (FAIR), Fabien Teytaud
(ULCO), Vlad Hosu, Nathanael Carraz, Laurent Najman (LIGM), Markus Wagner
- Abstract要約: 生成モデルにおける公平性問題とモード崩壊に対処する汎用アルゴリズムを設計する。
我々のアルゴリズムは、教師なしの公正度のみを使用するため、我々の公正度改善手法には、敏感な変数に関する情報は使用されない。
法的リスクを軽減するために、顔のすべての画像(生成されたものでさえ)が削除された。
- 参考スコア(独自算出の注目度): 3.066746888889737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design general-purpose algorithms for addressing fairness issues and mode
collapse in generative modeling. More precisely, to design fair algorithms for
as many sensitive variables as possible, including variables we might not be
aware of, we assume no prior knowledge of sensitive variables: our algorithms
use unsupervised fairness only, meaning no information related to the sensitive
variables is used for our fairness-improving methods. All images of faces (even
generated ones) have been removed to mitigate legal risks.
- Abstract(参考訳): 生成モデルにおける公平性問題とモード崩壊に対処する汎用アルゴリズムを設計する。
より正確には、我々が気づかないかもしれない変数を含む、極力多くの敏感な変数に対して公正なアルゴリズムを設計するために、私たちはセンシティブな変数の事前知識を仮定しない。
法的リスクを軽減するために、顔のすべての画像(生成されたものでさえ)が削除された。
関連論文リスト
- Distributionally Generative Augmentation for Fair Facial Attribute Classification [69.97710556164698]
Facial Attribute Classification (FAC) は広く応用されている。
従来の手法で訓練されたFACモデルは、様々なデータサブポピュレーションにまたがる精度の不整合を示すことによって不公平である可能性がある。
本研究は,付加アノテーションなしでバイアスデータ上で公正なFACモデルをトレーニングするための,新しい世代ベースの2段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T10:50:53Z) - Fair Supervised Learning with A Simple Random Sampler of Sensitive
Attributes [13.988497790151651]
本研究は,ニューラルネットワークによって学習された公正な罰則を,非識別的教師付き学習のための感度属性の単純なランダムサンプリングを用いて提案する。
計算効率のよいグループレベルのフェアネス対応トレーニングフレームワークを構築した。
実証的な証拠は、我々のフレームワークが競合する手法よりも人気のあるベンチマークデータセットの有効性と公平性を享受していることを示している。
論文 参考訳(メタデータ) (2023-11-10T04:38:13Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - A Differentiable Distance Approximation for Fairer Image Classification [31.471917430653626]
我々は,AIモデルにおいて,偏りや不公平さを測定するために使用できる指標である,人口統計の分散の微分可能な近似を提案する。
我々の近似は、トレーニング中に余分なモデルを必要としない通常のトレーニング目標と共に最適化できる。
提案手法は,タスクやデータセットのさまざまなシナリオにおけるAIモデルの公平性を改善する。
論文 参考訳(メタデータ) (2022-10-09T23:02:18Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Fairness without the sensitive attribute via Causal Variational
Autoencoder [17.675997789073907]
EUにおけるプライバシーの目的とRGPDのような多彩な規制のため、多くの個人機密属性は収集されないことが多い。
近年の開発成果を近似推論に活用することにより,このギャップを埋めるためのアプローチを提案する。
因果グラフに基づいて、機密情報プロキシを推論するために、SRCVAEと呼ばれる新しい変分自動符号化ベースのフレームワークを利用する。
論文 参考訳(メタデータ) (2021-09-10T17:12:52Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Null It Out: Guarding Protected Attributes by Iterative Nullspace
Projection [51.041763676948705]
Iterative Null-space Projection (INLP) は神経表現から情報を取り除く新しい方法である。
提案手法は,単語埋め込みにおけるバイアスを軽減するとともに,複数クラス分類の設定において公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2020-04-16T14:02:50Z) - Hidden Cost of Randomized Smoothing [72.93630656906599]
本稿では、現在のランダム化平滑化による副作用を指摘する。
具体的には,1)スムーズな分類器の決定境界が小さくなり,クラスレベルでの精度の相違が生じること,2)学習過程における雑音増強の適用は,一貫性のない学習目的による縮小問題を必ずしも解決しない,という2つの主要なポイントを具体化し,証明する。
論文 参考訳(メタデータ) (2020-03-02T23:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。