論文の概要: PopAlign: Population-Level Alignment for Fair Text-to-Image Generation
- arxiv url: http://arxiv.org/abs/2406.19668v1
- Date: Fri, 28 Jun 2024 05:38:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 17:39:39.597109
- Title: PopAlign: Population-Level Alignment for Fair Text-to-Image Generation
- Title(参考訳): PopAlign: テキスト対画像生成のための人口レベルアライメント
- Authors: Shufan Li, Harkanwar Singh, Aditya Grover,
- Abstract要約: 人口レベルの選好最適化のための新しいアプローチであるPopAlignを紹介する。
我々は,PopAlignが事前学習したT2Iモデルのバイアスを著しく軽減し,生成品質をほぼ保っていることを示す。
- 参考スコア(独自算出の注目度): 26.457571615782985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image (T2I) models achieve high-fidelity generation through extensive training on large datasets. However, these models may unintentionally pick up undesirable biases of their training data, such as over-representation of particular identities in gender or ethnicity neutral prompts. Existing alignment methods such as Reinforcement Learning from Human Feedback (RLHF) and Direct Preference Optimization (DPO) fail to address this problem effectively because they operate on pairwise preferences consisting of individual samples, while the aforementioned biases can only be measured at a population level. For example, a single sample for the prompt "doctor" could be male or female, but a model generating predominantly male doctors even with repeated sampling reflects a gender bias. To address this limitation, we introduce PopAlign, a novel approach for population-level preference optimization, while standard optimization would prefer entire sets of samples over others. We further derive a stochastic lower bound that directly optimizes for individual samples from preferred populations over others for scalable training. Using human evaluation and standard image quality and bias metrics, we show that PopAlign significantly mitigates the bias of pretrained T2I models while largely preserving the generation quality. Code is available at https://github.com/jacklishufan/PopAlignSDXL.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルは大規模なデータセットの広範なトレーニングを通じて高忠実度生成を実現する。
しかしながら、これらのモデルは、性別や民族中立性のプロンプトにおける特定のアイデンティティの過剰表現など、トレーニングデータの望ましくない偏見を意図せずに拾うことができる。
Reinforcement Learning from Human Feedback (RLHF) や Direct Preference Optimization (DPO) のような既存のアライメント手法では、個々のサンプルからなるペアの選好で機能するのに対して、上記のバイアスは人口レベルでのみ測定できるため、この問題に効果的に対処できない。
例えば、プロンプト「ドクター」の1つのサンプルは男性か女性かもしれないが、繰り返しサンプリングされた場合でも主に男性医師を生成するモデルは、性別バイアスを反映している。
この制限に対処するために、PopAlignを導入し、PopAlignは集団レベルの選好最適化の新しいアプローチであり、標準最適化はサンプル全体の集合を他よりも優先する。
さらに、よりスケーラブルなトレーニングのために、好まれる個体群から個々の標本を直接最適化する確率的下界を導出する。
人間の評価と標準的な画像品質とバイアスの指標を用いて、PopAlignは事前学習したT2Iモデルのバイアスを著しく軽減し、生成品質をほぼ保っていることを示す。
コードはhttps://github.com/jacklishufan/PopAlignSDXLで入手できる。
関連論文リスト
- Calibrated Multi-Preference Optimization for Aligning Diffusion Models [92.90660301195396]
Calibrated Preference Optimization (CaPO) は、テキスト・ツー・イメージ(T2I)拡散モデルを調整する新しい手法である。
CaPOは、人間の注釈のない複数の報酬モデルからの一般的な好みを取り入れている。
実験結果から, CaPOは従来法よりも常に優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-02-04T18:59:23Z) - SePPO: Semi-Policy Preference Optimization for Diffusion Alignment [67.8738082040299]
本稿では、報酬モデルやペアの人間注釈データに頼ることなく、DMと好みを一致させる選好最適化手法を提案する。
テキスト・ツー・イメージとテキスト・ツー・ビデオのベンチマークでSePPOを検証する。
論文 参考訳(メタデータ) (2024-10-07T17:56:53Z) - Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems [39.58317527488534]
天体物理学の応用では、基礎となるデータ生成プロセスから独立した、あるいは同一に分散したサンプルを取得することはしばしば困難または不可能である。
本稿では,異なる観測セットの後方サンプルを用いてモデルを再学習し,集団レベルの分布を反復的に更新することでこの問題に対処することを提案する。
そこで本研究では,不特定分布から,更新分布が個体群レベルの分布に徐々に近づきつつあることを示す。
論文 参考訳(メタデータ) (2024-07-24T22:39:27Z) - Curriculum Direct Preference Optimization for Diffusion and Consistency Models [110.08057135882356]
テキスト・ツー・イメージ・ジェネレーションのためのカリキュラム学習に基づくDPOの新しい拡張版を提案する。
我々のアプローチであるCurriculum DPOは、3つのベンチマークにおける最先端の微調整手法と比較される。
論文 参考訳(メタデータ) (2024-05-22T13:36:48Z) - Debiased Model-based Interactive Recommendation [22.007617148466807]
textbfidentible textbfDebiased textbfModel-based textbfInteractive textbfRecommendation(略してtextbfiDMIR)と呼ばれるモデルを開発する。
最初の欠点として、識別保証を伴う時間変化レコメンデーション生成プロセスの因果メカニズムに基づいて、偏見付き因果世界モデルを考案する。
第2の欠点として、偏りのある対照的な学習と一致し、サンプリングバイアスを避ける、偏りのある対照的な政策を考案する。
論文 参考訳(メタデータ) (2024-02-24T14:10:04Z) - Unbiased Image Synthesis via Manifold Guidance in Diffusion Models [9.531220208352252]
拡散モデルは、しばしば必然的に特定のデータ属性を好ましくし、生成された画像の多様性を損なう。
我々は,DDPMにおけるバイアス問題を緩和する最初の教師なし手法であるManifold Smpling Guidanceというプラグアンドプレイ手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T02:03:17Z) - Language Models Get a Gender Makeover: Mitigating Gender Bias with
Few-Shot Data Interventions [50.67412723291881]
事前訓練された大きな言語モデルに存在する社会的バイアスが重要な問題である。
我々は,事前学習モデルにおける性別バイアスを低減するために,データ介入戦略を強力かつ簡単な手法として提案する。
論文 参考訳(メタデータ) (2023-06-07T16:50:03Z) - BLIND: Bias Removal With No Demographics [29.16221451643288]
我々は、データセットの人口統計学の事前知識のないバイアス除去手法であるBLINDを紹介する。
下流タスクでモデルをトレーニングしている間、BLINDは、メインモデルの成功を予測する補助モデルを使用してバイアス付きサンプルを検出し、トレーニングプロセス中にこれらのサンプルをダウンウェイトする。
感情分類と職業分類タスクにおける人種的および性別的偏見による実験は、BLINDがコストのかかる人口統計学的アノテーションプロセスに頼ることなく社会的偏見を緩和することを示した。
論文 参考訳(メタデータ) (2022-12-20T18:59:42Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - Improving Maximum Likelihood Training for Text Generation with Density
Ratio Estimation [51.091890311312085]
本稿では,テキスト生成で遭遇する大規模なサンプル空間において,効率よく安定な自動回帰シーケンス生成モデルのトレーニング手法を提案する。
本手法は,品質と多様性の両面で,最大類似度推定や他の最先端シーケンス生成モデルよりも安定に優れている。
論文 参考訳(メタデータ) (2020-07-12T15:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。