論文の概要: LIVS: A Pluralistic Alignment Dataset for Inclusive Public Spaces
- arxiv url: http://arxiv.org/abs/2503.01894v2
- Date: Thu, 08 May 2025 03:50:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 15:15:32.914978
- Title: LIVS: A Pluralistic Alignment Dataset for Inclusive Public Spaces
- Title(参考訳): LIVS: 包括的公共空間のための複数のアライメントデータセット
- Authors: Rashid Mushkani, Shravan Nayak, Hugo Berard, Allison Cohen, Shin Koseki, Hadrien Bertrand,
- Abstract要約: マルチ基準アライメントのためのベンチマークであるLocal Intersectional Visual Spacesデータセットを紹介する。
このデータセットは、13,462の画像に対して37,710のペア比較を符号化しており、6つの基準に沿って構成されている。
安定拡散XLを微調整し,複数条件の空間的嗜好を反映し,LIVSデータセットと微調整モデルを評価する。
- 参考スコア(独自算出の注目度): 3.203159763233367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Local Intersectional Visual Spaces (LIVS) dataset, a benchmark for multi-criteria alignment, developed through a two-year participatory process with 30 community organizations to support the pluralistic alignment of text-to-image (T2I) models in inclusive urban planning. The dataset encodes 37,710 pairwise comparisons across 13,462 images, structured along six criteria - Accessibility, Safety, Comfort, Invitingness, Inclusivity, and Diversity - derived from 634 community-defined concepts. Using Direct Preference Optimization (DPO), we fine-tune Stable Diffusion XL to reflect multi-criteria spatial preferences and evaluate the LIVS dataset and the fine-tuned model through four case studies: (1) DPO increases alignment with annotated preferences, particularly when annotation volume is high; (2) preference patterns vary across participant identities, underscoring the need for intersectional data; (3) human-authored prompts generate more distinctive visual outputs than LLM-generated ones, influencing annotation decisiveness; and (4) intersectional groups assign systematically different ratings across criteria, revealing the limitations of single-objective alignment. While DPO improves alignment under specific conditions, the prevalence of neutral ratings indicates that community values are heterogeneous and often ambiguous. LIVS provides a benchmark for developing T2I models that incorporate local, stakeholder-driven preferences, offering a foundation for context-aware alignment in spatial design.
- Abstract(参考訳): 地域間視覚空間(LIVS)データセットは,都市計画におけるテキスト・ツー・イメージ(T2I)モデルの多元的アライメントを支援するために,30のコミュニティ組織による2年間の参加プロセスを通じて開発された。
このデータセットは、アクセシビリティ、安全、快適、招待性、インクルーシティ、多様性の6つの基準に沿って構成され、13,462の画像に対して37,710のペア比較を符号化している。
直接選好最適化 (DPO) を用いて, 複数基準の空間的嗜好を反映し, LIVSデータセットと細調整モデルの評価を行う。(1) DPOは注釈量が高い場合に, 注釈付き選好との整合性を高める; (2) 参加者の同一性によって好みのパターンが変化し, 交叉データの必要性が強調される; (3) 人によるプロンプトは, LLM生成したものよりも顕著な視覚的出力を生成し, 注釈決定性に影響を与える; (4) 交叉群は, 基準間で体系的に異なる評価を割り当て, 単目的アライメントの限界を明らかにする。
DPOは特定の条件下でのアライメントを改善するが、中立格付けの頻度は、コミュニティの値は不均一であり、しばしば曖昧であることを示している。
LIVSは、ローカルな利害関係者主導の嗜好を取り入れたT2Iモデルを開発するためのベンチマークを提供し、空間設計におけるコンテキスト対応アライメントの基礎を提供する。
関連論文リスト
- Beyond Relevance: An Adaptive Exploration-Based Framework for Personalized Recommendations [0.0]
本稿では,多様性と新規性を促進するための探索に基づく推薦フレームワークを提案する。
ユーザ制御探索機構は、探索されていないクラスタから選択的にサンプリングすることで多様性を高める。
MovieLensデータセットの実験では、探索を可能にすることで、リスト内の類似性が0.34から0.26に減少し、予期せぬ結果が0.73に増加した。
論文 参考訳(メタデータ) (2025-03-25T10:27:32Z) - From 1,000,000 Users to Every User: Scaling Up Personalized Preference for User-level Alignment [41.96246165999026]
大規模言語モデル(LLM)は、伝統的にワンサイズフィットのアプローチによって整列されてきた。
本稿では,LLMのスケーラブルなパーソナライズのための包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-19T17:41:46Z) - RankPO: Preference Optimization for Job-Talent Matching [7.385902340910447]
大規模言語モデル(LLM)のための2段階トレーニングフレームワークを提案する。
最初の段階では、実際のマッチングルールから構築されたデータセット上でモデルをトレーニングするために、対照的な学習アプローチが使用される。
第2段階では、AIで計算したペアの選好とモデルを整合させるために、直接選好最適化(DPO)にインスパイアされた、新しい選好に基づく微調整手法を導入する。
論文 参考訳(メタデータ) (2025-03-13T10:14:37Z) - A RankNet-Inspired Surrogate-Assisted Hybrid Metaheuristic for Expensive Coverage Optimization [5.757318591302855]
大規模カバレッジ最適化タスクを処理するために,RangeNetによるSurrogate支援ハイブリッドメタヒューリスティックを提案する。
我々のアルゴリズムは、EMVOPの最先端アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2025-01-13T14:49:05Z) - No Preference Left Behind: Group Distributional Preference Optimization [46.98320272443297]
Group Distribution Preference Optimization (GDPO) は、言語モデルをグループ内の好みの分布と整合させる新しいフレームワークである。
GDPOは、グループの信念分布の統計的推定を用いて言語モデルを校正する。
GDPOはトレーニング中にこのアライメントギャップを一貫して削減します。
論文 参考訳(メタデータ) (2024-12-28T23:30:47Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Preference Alignment Improves Language Model-Based TTS [76.70693823683091]
選好アライメントアルゴリズムは、報酬モデルの嗜好に合わせてLMを調整し、生成されたコンテンツの望ましさを高める。
1.15B のパラメータ LM に基づく TTS モデルを用いて、嗜好の整合性は常に知性、話者類似性、代用主観的評価スコアを向上することを示した。
論文 参考訳(メタデータ) (2024-09-19T01:58:19Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - ABC Align: Large Language Model Alignment for Safety & Accuracy [0.0]
大規模言語モデル(LLM)のための新しいアライメント手法ABC Alignを提案する。
合成データ生成、選好最適化、ポストトレーニングモデル量子化における最近のブレークスルーの上に構築された一連のデータとメソッドを組み合わせる。
我々の統一的なアプローチは、標準ベンチマークに対して測定されたように、バイアスを軽減し、推論能力を保ちながら精度を向上させる。
論文 参考訳(メタデータ) (2024-08-01T06:06:25Z) - Personalized Collaborative Fine-Tuning for On-Device Large Language Models [33.68104398807581]
ローカルデータ利用率に制限のある大規模言語モデルのデバイス上での自己教師型協調微調整について検討する。
本稿では,信頼度重み付き勾配集約方式として,重み類似度ベース,予測類似度ベース,検証性能ベースという3つの方法を紹介する。
予測および性能指標によって駆動される当社のプロトコルは、FedAvgと局所的な微調整手法の両方を超越している。
論文 参考訳(メタデータ) (2024-04-15T12:54:31Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Controllable Preference Optimization: Toward Controllable Multi-Objective Alignment [103.12563033438715]
人工知能におけるアライメントは、モデル応答と人間の好みと値の一貫性を追求する。
既存のアライメント技術は、主に一方向であり、様々な目的に対して、最適以下のトレードオフと柔軟性の低下につながる。
制御可能な選好最適化(CPO)を導入し、異なる目的に対する選好スコアを明確に指定する。
論文 参考訳(メタデータ) (2024-02-29T12:12:30Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。