論文の概要: Text-to-Image Models Leave Identifiable Signatures: Implications for Leaderboard Security
- arxiv url: http://arxiv.org/abs/2510.06525v1
- Date: Tue, 07 Oct 2025 23:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.230244
- Title: Text-to-Image Models Leave Identifiable Signatures: Implications for Leaderboard Security
- Title(参考訳): テキストと画像のモデルが署名を識別する: リーダーボードのセキュリティへの示唆
- Authors: Ali Naseh, Anshuman Suri, Yuefeng Peng, Harsh Chaudhari, Alina Oprea, Amir Houmansadr,
- Abstract要約: テキストから画像へのリーダーボードにおけるランク操作は,これまで認識されていたよりも容易であることを示す。
以上の結果から,テキストから画像へのリーダーボードのランク操作は従来よりも容易であることが示唆された。
- 参考スコア(独自算出の注目度): 24.40199910521865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI leaderboards are central to evaluating model capabilities, but remain vulnerable to manipulation. Among key adversarial objectives is rank manipulation, where an attacker must first deanonymize the models behind displayed outputs -- a threat previously demonstrated and explored for large language models (LLMs). We show that this problem can be even more severe for text-to-image leaderboards, where deanonymization is markedly easier. Using over 150,000 generated images from 280 prompts and 19 diverse models spanning multiple organizations, architectures, and sizes, we demonstrate that simple real-time classification in CLIP embedding space identifies the generating model with high accuracy, even without prompt control or historical data. We further introduce a prompt-level separability metric and identify prompts that enable near-perfect deanonymization. Our results indicate that rank manipulation in text-to-image leaderboards is easier than previously recognized, underscoring the need for stronger defenses.
- Abstract(参考訳): 生成可能なAIリーダーボードは、モデル機能の評価の中心であるが、操作に弱いままである。
主な敵の目標はランク操作であり、攻撃者は最初に表示された出力の背後にあるモデルを匿名化しなければならない。
我々は、匿名化が著しく容易な、テキストから画像へのリーダーボードにとって、この問題はさらに深刻であることを示した。
280のプロンプトから15万以上の生成イメージと、複数の組織、アーキテクチャ、サイズにまたがる19の多様なモデルを用いて、CLIP埋め込み空間における単純なリアルタイム分類が、迅速な制御や履歴データなしで、高い精度で生成モデルを特定することを実証した。
さらに、プロンプトレベルの分離性指標を導入し、ほぼ完全なデ匿名化を可能にするプロンプトを同定する。
以上の結果から,テキストから画像へのリーダボードのランク操作は従来よりも容易であることが示唆され,より強力な防御の必要性が示唆された。
関連論文リスト
- Towards Mechanistic Defenses Against Typographic Attacks in CLIP [23.69564867168339]
タイポグラフィー攻撃下でのCLIP視覚エンコーダの挙動を解析する。
タイポグラフィ回路を選択的にブレイすることで,CLIPモデルに対するタイポグラフィ攻撃に対する防御手法を提案する。
タイポグラフィー攻撃に対して極めて堅牢なDyslexic CLIPモデル群をリリースする。
論文 参考訳(メタデータ) (2025-08-28T09:08:30Z) - ICAS: Detecting Training Data from Autoregressive Image Generative Models [38.1625974271413]
トレーニングデータ検出は、モデルトレーニングにおける不正なデータ使用を識別するための重要なタスクとして登場した。
我々はこの領域に会員推定を適用した最初の研究を行う。
我々の手法は、様々なデータ変換の下で強い堅牢性と一般化を示す。
論文 参考訳(メタデータ) (2025-07-07T14:50:42Z) - Benchmarking Unified Face Attack Detection via Hierarchical Prompt Tuning [58.16354555208417]
PADとFFDはそれぞれ物理メディアベースのプレゼンテーションアタックとデジタル編集ベースのDeepFakeから顔データを保護するために提案されている。
これら2つのカテゴリの攻撃を同時に処理する統一顔攻撃検出モデルがないことは、主に2つの要因に起因する。
本稿では,異なる意味空間から複数の分類基準を適応的に探索する,視覚言語モデルに基づく階層型プロンプトチューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T16:35:45Z) - Memory Backdoor Attacks on Neural Networks [3.2720947374803777]
本稿では,特定のトレーニングサンプルに対してモデルを秘密裏に訓練し,後に選択的に出力するメモリバックドア攻撃を提案する。
画像分類器、セグメンテーションモデル、および大規模言語モデル(LLM)に対する攻撃を実証する。
論文 参考訳(メタデータ) (2024-11-21T16:09:16Z) - Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Towards Reliable Evaluation and Fast Training of Robust Semantic Segmentation Models [47.03411822627386]
我々は,mIoUとmIoUの精度の異なる指標を最小化する,いくつかの問題固有の新規攻撃を提案する。
驚くべきことに、セマンティックセグメンテーションモデルに対する既存の敵の訓練の試みは、弱かったり、全く損なわれなかったりする。
最近提案された堅牢なImageNetバックボーンを用いて,PASCAL-VOCとADE20kの最大6倍のトレーニング時間を持つ,対向的に堅牢なセマンティックセマンティックセマンティクスモデルを得ることができることを示す。
論文 参考訳(メタデータ) (2023-06-22T14:56:06Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。