論文の概要: Whose View of Safety? A Deep DIVE Dataset for Pluralistic Alignment of Text-to-Image Models
- arxiv url: http://arxiv.org/abs/2507.13383v1
- Date: Tue, 15 Jul 2025 21:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.056902
- Title: Whose View of Safety? A Deep DIVE Dataset for Pluralistic Alignment of Text-to-Image Models
- Title(参考訳): 誰が安全か? テキスト・画像モデルの多元的アライメントのためのディープDIVEデータセット
- Authors: Charvi Rastogi, Tian Huey Teh, Pushkar Mishra, Roma Patel, Ding Wang, Mark Díaz, Alicia Parrish, Aida Mostafazadeh Davani, Zoe Ashwood, Michela Paganini, Vinodkumar Prabhakaran, Verena Rieser, Lora Aroyo,
- Abstract要約: 現在のテキスト・トゥ・イメージ(T2I)モデルは、多種多様な人間の経験を説明できないことが多く、不整合システムに繋がる。
我々は、AIが理解し、多様で、しばしば矛盾する人間の価値観に対して操縦できる多元的アライメントを提唱する。
- 参考スコア(独自算出の注目度): 29.501859416167385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current text-to-image (T2I) models often fail to account for diverse human experiences, leading to misaligned systems. We advocate for pluralistic alignment, where an AI understands and is steerable towards diverse, and often conflicting, human values. Our work provides three core contributions to achieve this in T2I models. First, we introduce a novel dataset for Diverse Intersectional Visual Evaluation (DIVE) -- the first multimodal dataset for pluralistic alignment. It enable deep alignment to diverse safety perspectives through a large pool of demographically intersectional human raters who provided extensive feedback across 1000 prompts, with high replication, capturing nuanced safety perceptions. Second, we empirically confirm demographics as a crucial proxy for diverse viewpoints in this domain, revealing significant, context-dependent differences in harm perception that diverge from conventional evaluations. Finally, we discuss implications for building aligned T2I models, including efficient data collection strategies, LLM judgment capabilities, and model steerability towards diverse perspectives. This research offers foundational tools for more equitable and aligned T2I systems. Content Warning: The paper includes sensitive content that may be harmful.
- Abstract(参考訳): 現在のテキスト・トゥ・イメージ(T2I)モデルは、多種多様な人間の経験を説明できないことが多く、不整合システムに繋がる。
我々は、AIが理解し、多様で、しばしば矛盾する人間の価値観に対して操縦できる多元的アライメントを提唱する。
私たちの研究は、T2Iモデルでこれを実現するための3つのコアコントリビューションを提供します。
まず,多面的アライメントのための最初のマルチモーダルデータセットであるDIVE(Diverse Intersectional Visual Evaluation)を提案する。
これにより、人口統計学的に交差する人間のレイパーのプールを通じて、様々な安全性の視点に深く整合し、1000のプロンプトに広範囲なフィードバックを提供し、高いレプリケーションと、微妙な安全性の認識を捉えることができる。
第2に、この領域における多様な視点の重要要因として人口動態を実証的に確認し、従来の評価から逸脱する害知覚の有意な文脈依存的な差異を明らかにした。
最後に, 効率的なデータ収集戦略, LLM判定能力, 多様な視点に対するモデルステアビリティなどを含む, 整列型T2Iモデル構築の意義について考察する。
この研究は、より公平で整合したT2Iシステムのための基礎的なツールを提供する。
コンテンツ警告(Content Warning): 有害である可能性のあるセンシティブなコンテンツを含む。
関連論文リスト
- Revisiting LLM Value Probing Strategies: Are They Robust and Expressive? [81.49470136653665]
広範に利用されている3つの探索戦略における値表現の頑健さと表現性を評価する。
人口統計学的文脈は自由テキスト生成にはほとんど影響を与えず、モデルの値は値に基づく行動の好みと弱い相関しか示さない。
論文 参考訳(メタデータ) (2025-07-17T18:56:41Z) - Can Generated Images Serve as a Viable Modality for Text-Centric Multimodal Learning? [3.966028515034415]
本研究は,テキスト・トゥ・イメージ(T2I)モデルにより生成した画像が,テキスト中心のタスクにおいて重要な相補的モダリティとして機能するかどうかを体系的に検討する。
論文 参考訳(メタデータ) (2025-06-21T07:32:09Z) - Decoding Safety Feedback from Diverse Raters: A Data-driven Lens on Responsiveness to Severity [27.898678946802438]
本稿では,複数のデータセットの粒度評価を解釈するための新しいデータ駆動型手法を提案する。
安全違反の度合いの異なるレベルを評価する際に,レーダの整合性を定量化する非パラメトリック応答性指標を蒸留する。
提案手法は,異なる階層群をまたいだニュアンスな視点を捉えることで,レーダの選択やフィードバックの解釈に役立てることができることを示す。
論文 参考訳(メタデータ) (2025-03-07T17:32:31Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Insights on Disagreement Patterns in Multimodal Safety Perception across Diverse Rater Groups [29.720095331989064]
AIシステムは人間のレーティングに大きく依存するが、これらのレーティングはしばしば集約される。
これは、社会文化的文脈によって知覚と関連する害が著しく異なる、生成的AIの安全性を評価する場合に特に関係している。
人口統計学的に多彩な630人のレーダプールから,約1000文字対画像(T2I)の高並列安全性評価を用いた大規模研究を行った。
論文 参考訳(メタデータ) (2024-10-22T13:59:21Z) - PartFormer: Awakening Latent Diverse Representation from Vision Transformer for Object Re-Identification [73.64560354556498]
Vision Transformer (ViT) は、ほとんどの異なる訓練データ領域に過度に適合する傾向にあり、その一般化性と全体的対象特徴への注意が制限される。
本稿では、オブジェクトRe-IDタスクの制限を克服するために設計された、ViTの革新的な適応であるPartFormerを紹介する。
我々のフレームワークは、最も困難なMSMT17データセットにおいて、最先端の2.4%のmAPスコアを著しく上回る。
論文 参考訳(メタデータ) (2024-08-29T16:31:05Z) - Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。