論文の概要: DesignPref: Capturing Personal Preferences in Visual Design Generation
- arxiv url: http://arxiv.org/abs/2511.20513v1
- Date: Tue, 25 Nov 2025 17:19:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.572103
- Title: DesignPref: Capturing Personal Preferences in Visual Design Generation
- Title(参考訳): DesignPref: ビジュアルデザイン生成における個人の嗜好をキャプチャする
- Authors: Yi-Hao Peng, Jeffrey P. Bigham, Jason Wu,
- Abstract要約: 20人のプロデザイナーが注釈付けしたUIデザイン生成の12k対比較データセットであるDesignPrefを紹介した。
パーソナライズされたモデルは、個々のデザイナの好みを予測するために、集約されたベースラインモデルよりも一貫して優れていることを示す。
我々の研究は、パーソナライズされたビジュアルデザイン評価を研究する最初のデータセットを提供し、個人デザインの味をモデル化する将来の研究を支援する。
- 参考スコア(独自算出の注目度): 19.015205942741837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models, such as large language models and text-to-image diffusion models, are increasingly used to create visual designs like user interfaces (UIs) and presentation slides. Finetuning and benchmarking these generative models have often relied on datasets of human-annotated design preferences. Yet, due to the subjective and highly personalized nature of visual design, preference varies widely among individuals. In this paper, we study this problem by introducing DesignPref, a dataset of 12k pairwise comparisons of UI design generation annotated by 20 professional designers with multi-level preference ratings. We found that among trained designers, substantial levels of disagreement exist (Krippendorff's alpha = 0.25 for binary preferences). Natural language rationales provided by these designers indicate that disagreements stem from differing perceptions of various design aspect importance and individual preferences. With DesignPref, we demonstrate that traditional majority-voting methods for training aggregated judge models often do not accurately reflect individual preferences. To address this challenge, we investigate multiple personalization strategies, particularly fine-tuning or incorporating designer-specific annotations into RAG pipelines. Our results show that personalized models consistently outperform aggregated baseline models in predicting individual designers' preferences, even when using 20 times fewer examples. Our work provides the first dataset to study personalized visual design evaluation and support future research into modeling individual design taste.
- Abstract(参考訳): 大きな言語モデルやテキストから画像への拡散モデルといった生成モデルは、ユーザインターフェース(UI)やプレゼンテーションスライドのようなビジュアルデザインを作成するために、ますます使われています。
これらの生成モデルの微調整とベンチマークは、しばしば人間に注釈付けされた設計の好みのデータセットに依存している。
しかし、視覚デザインの主観的かつ高度にパーソナライズされた性質のため、個人の好みは様々である。
本稿では,20名のプロデザイナーによるマルチレベル優先格付けによるUIデザイン生成のペア比較データセットであるDesignPrefを導入することにより,この問題を考察する。
訓練された設計者の間では、相当な相違点が存在する(クリッペンドルフのα = 0.25 は二進選好である)。
これらの設計者によって提供される自然言語の合理性は、相違点が様々な設計的側面の重要性と個人の好みの異なる認識に由来することを示している。
DesignPrefでは、集約された判断モデルをトレーニングするための従来の多数決投票方式が、個々の好みを正確に反映しないことが多いことを実証する。
この課題に対処するために、複数のパーソナライズ戦略、特に微調整や、デザイナー固有のアノテーションをRAGパイプラインに組み込むことについて検討する。
その結果,20倍のサンプルを用いた場合であっても,個別のデザイナーの好みを予測するため,パーソナライズされたモデルでは,集約されたベースラインモデルよりも一貫して優れていた。
我々の研究は、パーソナライズされたビジュアルデザイン評価を研究する最初のデータセットを提供し、個人デザインの味をモデル化する将来の研究を支援する。
関連論文リスト
- PreferThinker: Reasoning-based Personalized Image Preference Assessment [83.66114370585976]
推論に基づくパーソナライズされた画像嗜好評価フレームワークを提案する。
まず、ユーザーの好みプロファイルを参照画像から予測する。
次に、解釈可能で多次元のスコアと候補画像の評価を提供する。
論文 参考訳(メタデータ) (2025-11-01T16:19:51Z) - Learning User Preferences for Image Generation Model [15.884017849539754]
本稿では,マルチモーダルな大規模言語モデルに基づいて,パーソナライズされたユーザの好みを学習する手法を提案する。
対照的な選好損失は、利用者の「好き」と「嫌い」を効果的に区別するように設計されている。
学習可能な選好トークンは、既存のユーザ間で共有された関心表現をキャプチャし、モデルがグループ固有の選好を活性化し、類似ユーザ間の一貫性を高める。
論文 参考訳(メタデータ) (2025-08-11T17:39:42Z) - Capturing Individual Human Preferences with Reward Features [47.43999785878563]
個人の好みを一般報酬特徴の線形結合として捉えることができることを示す。
このような特徴を学習し、その後、報酬モデルを特定の個人に迅速に適応させる方法を示します。
提案するアーキテクチャを非適応型報酬モデルと適応型報酬モデルと比較し,大規模言語モデルを用いた実験を行った。
論文 参考訳(メタデータ) (2025-03-21T17:39:33Z) - Personalized Preference Fine-tuning of Diffusion Models [75.22218338096316]
拡散モデルとパーソナライズされた嗜好を整合させるマルチリワード最適化の目的であるPDを導入する。
PPDでは、拡散モデルがユーザーの個人の好みを数秒で学習する。
提案手法は,Stable Cascadeに対して平均76%の勝利率を達成し,特定のユーザの好みをより正確に反映した画像を生成する。
論文 参考訳(メタデータ) (2025-01-11T22:38:41Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - ViPer: Visual Personalization of Generative Models via Individual Preference Learning [11.909247529297678]
本稿では,画像生成プロセスのパーソナライズを,ユーザの汎用的な嗜好を1回に分けて行うことを提案する。
これらのコメントに基づいて、ユーザの構造化された好き嫌いや視覚的属性を推測する。
これらの属性は、個々のユーザの視覚的嗜好に合わせて調整された画像を生成するために、テキスト・ツー・イメージ・モデルを導くために使用される。
論文 参考訳(メタデータ) (2024-07-24T15:42:34Z) - Revision Matters: Generative Design Guided by Revision Edits [18.976709992275286]
本研究では,人間設計者による修正編集がマルチモーダル生成モデルにどのような効果をもたらすかを検討する。
本研究は, 反復的なレイアウト改善において, 人間のリビジョンが重要な役割を担っていることを示す。
我々の研究は、事前訓練された大規模マルチモーダルモデルに基づく反復的設計修正の道を開く。
論文 参考訳(メタデータ) (2024-05-27T17:54:51Z) - Compositional Generative Inverse Design [69.22782875567547]
入力変数を設計して目的関数を最適化する逆設計は重要な問題である。
拡散モデルにより得られた学習エネルギー関数を最適化することにより、そのような逆例を避けることができることを示す。
N-body 相互作用タスクと2次元多面体設計タスクにおいて,実験時に学習した拡散モデルを構成することにより,初期状態と境界形状を設計できることを示す。
論文 参考訳(メタデータ) (2024-01-24T01:33:39Z) - UniAR: A Unified model for predicting human Attention and Responses on visual content [12.281060227170792]
多様な視覚コンテンツにまたがる人間の注意と嗜好行動の統一モデルUniARを提案する。
自然画像、Webページ、グラフィックデザインにまたがる様々な公開データセットに基づいてUniARをトレーニングし、複数のベンチマークでSOTA性能を達成する。
潜在的なアプリケーションには、UI/視覚コンテンツの有効性に関する即時フィードバックの提供や、デザイナとコンテンツ作成モデルによる人間中心の改善のための作成の最適化などが含まれる。
論文 参考訳(メタデータ) (2023-12-15T19:57:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。