論文の概要: Identifying Models Behind Text-to-Image Leaderboards
- arxiv url: http://arxiv.org/abs/2601.09647v1
- Date: Wed, 14 Jan 2026 17:30:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.485222
- Title: Identifying Models Behind Text-to-Image Leaderboards
- Title(参考訳): テキストから画像へのリーダーボードの裏にあるモデルの同定
- Authors: Ali Naseh, Yuefeng Peng, Anshuman Suri, Harsh Chaudhari, Alina Oprea, Amir Houmansadr,
- Abstract要約: テキスト・ツー・イメージ(T2I)モデルはますます人気を博し、多くのAI生成イメージをオンラインで生成している。
本研究では,このような匿名性は容易に破れることを示す。
各T2Iモデルから世代が画像埋め込み空間に固有のクラスタを形成し、迅速な制御やトレーニングデータなしに正確な匿名化を可能にする。
- 参考スコア(独自算出の注目度): 24.40199910521865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-to-image (T2I) models are increasingly popular, producing a large share of AI-generated images online. To compare model quality, voting-based leaderboards have become the standard, relying on anonymized model outputs for fairness. In this work, we show that such anonymity can be easily broken. We find that generations from each T2I model form distinctive clusters in the image embedding space, enabling accurate deanonymization without prompt control or training data. Using 22 models and 280 prompts (150K images), our centroid-based method achieves high accuracy and reveals systematic model-specific signatures. We further introduce a prompt-level distinguishability metric and conduct large-scale analyses showing how certain prompts can lead to near-perfect distinguishability. Our findings expose fundamental security flaws in T2I leaderboards and motivate stronger anonymization defenses.
- Abstract(参考訳): テキスト・ツー・イメージ(T2I)モデルはますます人気を博し、多くのAI生成イメージをオンラインで生成している。
モデルの品質を比較するために、投票ベースのリーダーボードが標準となり、匿名化されたモデル出力に依存している。
本研究では,このような匿名性は容易に破れることを示す。
各T2Iモデルから世代が画像埋め込み空間に固有のクラスタを形成し、迅速な制御やトレーニングデータなしに正確な匿名化を可能にする。
22のモデルと280のプロンプト(150K画像)を用いて,本手法は精度が高く,体系的なモデル固有シグネチャを明らかにする。
さらに、プロンプトレベルの識別可能性指標を導入し、大規模な解析を行い、特定のプロンプトがほぼ完全な識別可能性をもたらすことを示す。
以上の結果から,T2Iリーダボードの基本的なセキュリティ欠陥が指摘され,より強力な匿名化防御の動機となった。
関連論文リスト
- Text-to-Image Models Leave Identifiable Signatures: Implications for Leaderboard Security [24.40199910521865]
テキストから画像へのリーダーボードにおけるランク操作は,これまで認識されていたよりも容易であることを示す。
以上の結果から,テキストから画像へのリーダーボードのランク操作は従来よりも容易であることが示唆された。
論文 参考訳(メタデータ) (2025-10-07T23:53:41Z) - AcT2I: Evaluating and Improving Action Depiction in Text-to-Image Models [58.85362281293525]
本稿では、アクション中心のプロンプトから画像を生成する際のT2Iモデルの性能を評価するためのベンチマークであるAcT2Iを紹介する。
我々は、先行するT2IモデルがAcT2Iにうまく対応していないことを実験的に検証した。
我々は,この制限に対処するために,大規模言語モデルを用いた訓練不要の知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2025-09-19T16:41:39Z) - PromptLA: Towards Integrity Verification of Black-box Text-to-Image Diffusion Models [17.12906933388337]
悪意のあるアクターは、不正なコンテンツを生成するためにT2I拡散モデルを微調整することができる。
本稿では,学習オートマトン(PromptLA)に基づく新しいプロンプト選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-20T07:24:32Z) - Information Theoretic Text-to-Image Alignment [49.396917351264655]
相互情報(MI)は、モデルアライメントのガイドに使用される。
本手法は,自己教師型微調整を用いて,プロンプトと画像間のポイントワイド(MI)推定に依存する。
解析の結果,本手法は最先端の手法よりも優れているが,MIを推定するにはT2Iモデル自体の事前学習されたデノナイジングネットワークが必要であることが示唆された。
論文 参考訳(メタデータ) (2024-05-31T12:20:02Z) - Improving Text-to-Image Consistency via Automatic Prompt Optimization [26.2587505265501]
我々は,T2Iモデルの迅速な画像整合性を改善するため,T2I最適化・プロンプトフレームワークであるOPT2Iを導入する。
当社のフレームワークは,ユーザのプロンプトから始まり,一貫性スコアの最大化を目標として,更新プロンプトを反復的に生成する。
論文 参考訳(メタデータ) (2024-03-26T15:42:01Z) - Discriminative Probing and Tuning for Text-to-Image Generation [129.39674951747412]
テキスト・ツー・イメージ生成(T2I)は、しばしば、生成された画像における関係の混乱のようなテキスト・イメージの誤調整問題に直面している。
本稿では,T2Iモデルの識別能力を向上し,より正確なテキストと画像のアライメントを実現することを提案する。
本稿では,T2Iモデル上に構築された識別アダプターを用いて,2つの代表課題における識別能力を探索し,テキスト画像のアライメントを改善するために識別微調整を利用する。
論文 参考訳(メタデータ) (2024-03-07T08:37:33Z) - Direct Consistency Optimization for Robust Customization of Text-to-Image Diffusion Models [67.68871360210208]
テキスト・ツー・イメージ(T2I)拡散モデルは、いくつかの個人画像に微調整された場合、高い一貫性で視覚を生成することができる。
本稿では,微調整モデルと事前学習モデルとの偏差を制御し,直接整合性最適化(Direct Consistency Optimization)と呼ばれる新たな微調整対象を提案する。
提案手法は, 通常の微調整モデルとのマージに最適化したモデルよりも, 高速な忠実度と主観的忠実度が得られることを示す。
論文 参考訳(メタデータ) (2024-02-19T09:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。