論文の概要: PopAlign: Population-Level Alignment for Fair Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2406.19668v1
- Date: Fri, 28 Jun 2024 05:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 17:39:39.597109
- Title: PopAlign: Population-Level Alignment for Fair Text-to-Image Generation
- Title(参考訳): PopAlign: テキスト対画像生成のための人口レベルアライメント
- Authors: Shufan Li, Harkanwar Singh, Aditya Grover,
- Abstract要約: 人口レベルの選好最適化のための新しいアプローチであるPopAlignを紹介する。
我々は,PopAlignが事前学習したT2Iモデルのバイアスを著しく軽減し,生成品質をほぼ保っていることを示す。
- 参考スコア(独自算出の注目度): 26.457571615782985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image (T2I) models achieve high-fidelity generation through extensive training on large datasets. However, these models may unintentionally pick up undesirable biases of their training data, such as over-representation of particular identities in gender or ethnicity neutral prompts. Existing alignment methods such as Reinforcement Learning from Human Feedback (RLHF) and Direct Preference Optimization (DPO) fail to address this problem effectively because they operate on pairwise preferences consisting of individual samples, while the aforementioned biases can only be measured at a population level. For example, a single sample for the prompt "doctor" could be male or female, but a model generating predominantly male doctors even with repeated sampling reflects a gender bias. To address this limitation, we introduce PopAlign, a novel approach for population-level preference optimization, while standard optimization would prefer entire sets of samples over others. We further derive a stochastic lower bound that directly optimizes for individual samples from preferred populations over others for scalable training. Using human evaluation and standard image quality and bias metrics, we show that PopAlign significantly mitigates the bias of pretrained T2I models while largely preserving the generation quality. Code is available at https://github.com/jacklishufan/PopAlignSDXL.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルは大規模なデータセットの広範なトレーニングを通じて高忠実度生成を実現する。
しかしながら、これらのモデルは、性別や民族中立性のプロンプトにおける特定のアイデンティティの過剰表現など、トレーニングデータの望ましくない偏見を意図せずに拾うことができる。
Reinforcement Learning from Human Feedback (RLHF) や Direct Preference Optimization (DPO) のような既存のアライメント手法では、個々のサンプルからなるペアの選好で機能するのに対して、上記のバイアスは人口レベルでのみ測定できるため、この問題に効果的に対処できない。
例えば、プロンプト「ドクター」の1つのサンプルは男性か女性かもしれないが、繰り返しサンプリングされた場合でも主に男性医師を生成するモデルは、性別バイアスを反映している。
この制限に対処するために、PopAlignを導入し、PopAlignは集団レベルの選好最適化の新しいアプローチであり、標準最適化はサンプル全体の集合を他よりも優先する。
さらに、よりスケーラブルなトレーニングのために、好まれる個体群から個々の標本を直接最適化する確率的下界を導出する。
人間の評価と標準的な画像品質とバイアスの指標を用いて、PopAlignは事前学習したT2Iモデルのバイアスを著しく軽減し、生成品質をほぼ保っていることを示す。
コードはhttps://github.com/jacklishufan/PopAlignSDXLで入手できる。
関連論文リスト
- Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems [39.58317527488534]
データ駆動型人口レベルの分布は、逆問題における単純なパラメトリック先行よりも魅力的な選択肢として現れている。
これらのモデルをトレーニングするために、基礎となるデータ生成プロセスから独立した、同一に分散されたサンプルを取得することは困難である。
本研究は, 事前分布の不特定から, 更新された分布が, 人口レベルの分布に徐々に近づきつつあることを示す。
論文 参考訳(メタデータ) (2024-07-24T22:39:27Z) - Curriculum Direct Preference Optimization for Diffusion and Consistency Models [110.08057135882356]
テキスト・ツー・イメージ・ジェネレーションのためのカリキュラム学習に基づくDPOの新しい拡張版を提案する。
我々のアプローチであるCurriculum DPOは、3つのベンチマークにおける最先端の微調整手法と比較される。
論文 参考訳(メタデータ) (2024-05-22T13:36:48Z) - Debiased Model-based Interactive Recommendation [22.007617148466807]
textbfidentible textbfDebiased textbfModel-based textbfInteractive textbfRecommendation(略してtextbfiDMIR)と呼ばれるモデルを開発する。
最初の欠点として、識別保証を伴う時間変化レコメンデーション生成プロセスの因果メカニズムに基づいて、偏見付き因果世界モデルを考案する。
第2の欠点として、偏りのある対照的な学習と一致し、サンプリングバイアスを避ける、偏りのある対照的な政策を考案する。
論文 参考訳(メタデータ) (2024-02-24T14:10:04Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - Unbiased Image Synthesis via Manifold Guidance in Diffusion Models [9.531220208352252]
拡散モデルは、しばしば必然的に特定のデータ属性を好ましくし、生成された画像の多様性を損なう。
我々は,DDPMにおけるバイアス問題を緩和する最初の教師なし手法であるManifold Smpling Guidanceというプラグアンドプレイ手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T02:03:17Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - BLIND: Bias Removal With No Demographics [29.16221451643288]
我々は、データセットの人口統計学の事前知識のないバイアス除去手法であるBLINDを紹介する。
下流タスクでモデルをトレーニングしている間、BLINDは、メインモデルの成功を予測する補助モデルを使用してバイアス付きサンプルを検出し、トレーニングプロセス中にこれらのサンプルをダウンウェイトする。
感情分類と職業分類タスクにおける人種的および性別的偏見による実験は、BLINDがコストのかかる人口統計学的アノテーションプロセスに頼ることなく社会的偏見を緩和することを示した。
論文 参考訳(メタデータ) (2022-12-20T18:59:42Z) - Bias Mimicking: A Simple Sampling Approach for Bias Mitigation [57.17709477668213]
本稿では,新しいクラス条件サンプリング手法であるBias Mimickingを紹介する。
Bias Mimickingは、4つのベンチマークで3%の精度でサンプリングの精度を向上する。
論文 参考訳(メタデータ) (2022-09-30T17:33:00Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Adversarial Examples Generation for Reducing Implicit Gender Bias in
Pre-trained Models [2.6329024988388925]
文レベルで暗黙の性別バイアスを自動生成する手法と,性別バイアスを測定する指標を提案する。
このメトリクスは、事前訓練されたモデルからサンプルの生成を導くのに使用される。そのため、これらの例は事前訓練されたモデルに対する攻撃を強制するために使用できる。
論文 参考訳(メタデータ) (2021-10-03T20:22:54Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。