論文の概要: Aesthetic Alignment Risks Assimilation: How Image Generation and Reward Models Reinforce Beauty Bias and Ideological "Censorship"
- arxiv url: http://arxiv.org/abs/2512.11883v1
- Date: Tue, 09 Dec 2025 00:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:55.992863
- Title: Aesthetic Alignment Risks Assimilation: How Image Generation and Reward Models Reinforce Beauty Bias and Ideological "Censorship"
- Title(参考訳): 美的アライメントリスクの同化:イメージ生成とリワードモデルが美的バイアスとイデオロギー的「検閲」をいかに強化するか
- Authors: Wenqi Marshall Guo, Qingyun Qian, Khalad Hasan, Shan Du,
- Abstract要約: 一般的な審美的嗜好に過度に適応する画像生成モデルは、ユーザの意図と矛盾する。
我々は、広スペクトル美学データセットを構築し、最先端の生成と報酬モデルを評価することで、このバイアスをテストする。
- 参考スコア(独自算出の注目度): 10.879152680774318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over-aligning image generation models to a generalized aesthetic preference conflicts with user intent, particularly when ``anti-aesthetic" outputs are requested for artistic or critical purposes. This adherence prioritizes developer-centered values, compromising user autonomy and aesthetic pluralism. We test this bias by constructing a wide-spectrum aesthetics dataset and evaluating state-of-the-art generation and reward models. We find that aesthetic-aligned generation models frequently default to conventionally beautiful outputs, failing to respect instructions for low-quality or negative imagery. Crucially, reward models penalize anti-aesthetic images even when they perfectly match the explicit user prompt. We confirm this systemic bias through image-to-image editing and evaluation against real abstract artworks.
- Abstract(参考訳): 一般の美的嗜好に過度に適応する画像生成モデルは、特に「アンチ美的」なアウトプットが芸術的または批判的な目的のために要求される場合、ユーザ意図と矛盾する。
この順守は開発者中心の価値観を優先し、ユーザの自律性と美的多元主義を妥協させる。
我々は、広スペクトル美学データセットを構築し、最先端の生成と報酬モデルを評価することで、このバイアスをテストする。
美容整合生成モデルは、しばしば伝統的に美しい出力をデフォルトとし、低品質または負の画像に対する指示を尊重しない。
重要なことに、報酬モデルでは、明示的なユーザープロンプトと完全に一致した場合でも、アンチ審美的イメージをペナルティ化する。
画像と画像の編集と実際の抽象アートに対する評価により,この体系的バイアスを確認する。
関連論文リスト
- Enhancing Reward Models for High-quality Image Generation: Beyond Text-Image Alignment [63.823383517957986]
テキスト画像アライメントの目的を達成し,達成する新しい評価スコアであるICT(Image-Contained-Text)を提案する。
さらに、画像モダリティのみを用いてHPスコアモデル(High-Preference)をトレーニングし、画像美学とディテール品質を向上させる。
論文 参考訳(メタデータ) (2025-07-25T07:01:50Z) - Anti-Aesthetics: Protecting Facial Privacy against Customized Text-to-Image Synthesis [18.743360923809217]
審美的方法を完全に探求する階層的アンチ審美(HAA)フレームワークを提案する。
我々のHAAは、カスタマイズ世代において、グローバルからローカルレベルへのアンチ美学の目標を効果的に達成します。
論文 参考訳(メタデータ) (2025-04-16T14:44:00Z) - Aligning Vision Models with Human Aesthetics in Retrieval: Benchmarks and Algorithms [91.19304518033144]
検索システムにおける視覚モデルと人間の審美基準の整合を図る。
本研究では、視覚モデルと人間の美学をよりよく整合させるために、視覚モデルを微調整する嗜好に基づく強化学習手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:20Z) - Inpaint Biases: A Pathway to Accurate and Unbiased Image Generation [0.0]
Inpaint Biasesフレームワークは,画像生成の精度を高めるために,ユーザ定義マスクとインペイント技術を利用する。
我々は,このフレームワークが生成した画像のユーザ意図に対する忠実度を大幅に改善し,モデルの作成能力を向上することを示す。
論文 参考訳(メタデータ) (2024-05-29T05:04:07Z) - Human Aesthetic Preference-Based Large Text-to-Image Model
Personalization: Kandinsky Generation as an Example [4.744780823386797]
本稿では,パーソナライズされた絵画コンテンツを自動的に生成する,プロンプトフリーな生成手法を提案する。
アーティストモデル生成画像に対するユーザの美的評価と嗜好を頼りにすることで、ユーザをパーソナライズしたモデルにする。
論文 参考訳(メタデータ) (2024-02-09T13:11:19Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - Modeling, Quantifying, and Predicting Subjectivity of Image Aesthetics [21.46956783120668]
本稿では,主観的美的嗜好をモデル化し,その主観的論理に基づいて定量化できる統一確率的枠組みを提案する。
この枠組みでは、評価分布をベータ分布としてモデル化し、確実に喜ぶ可能性、確実に不幸であり、不確実である可能性を得ることができる。
本稿では,画像美学の予測のための深層ニューラルネットワークの学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-20T12:16:45Z) - User-Guided Personalized Image Aesthetic Assessment based on Deep
Reinforcement Learning [64.07820203919283]
本稿では,新しいユーザガイド型画像美観評価フレームワークを提案する。
深部強化学習(DRL)に基づく審美評価のためのユーザインタラクションを活用して画像のリタッチとランク付けを行う
パーソナライズされた審美分布は、異なるユーザの審美的嗜好とより一致している。
論文 参考訳(メタデータ) (2021-06-14T15:19:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。