論文の概要: Unknown Aware AI-Generated Content Attribution
- arxiv url: http://arxiv.org/abs/2601.00218v1
- Date: Thu, 01 Jan 2026 05:47:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.318184
- Title: Unknown Aware AI-Generated Content Attribution
- Title(参考訳): 未知のAI生成コンテンツ属性
- Authors: Ellie Thieu, Jifan Zhang, Haoyue Bai,
- Abstract要約: 本研究では,対象とする生成モデルと他の生成モデルとを区別する問題について検討する。
ラベルのないワイルドデータを活用する制約付き最適化手法を提案する。
実験結果から, 野生データの導入により, 未確認発電機の帰属性能が著しく向上することが示唆された。
- 参考スコア(独自算出の注目度): 10.257885473523162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of photorealistic generative models has made it increasingly important to attribute the origin of synthetic content, moving beyond binary real or fake detection toward identifying the specific model that produced a given image. We study the problem of distinguishing outputs from a target generative model (e.g., OpenAI Dalle 3) from other sources, including real images and images generated by a wide range of alternative models. Using CLIP features and a simple linear classifier, shown to be effective in prior work, we establish a strong baseline for target generator attribution using only limited labeled data from the target model and a small number of known generators. However, this baseline struggles to generalize to harder, unseen, and newly released generators. To address this limitation, we propose a constrained optimization approach that leverages unlabeled wild data, consisting of images collected from the Internet that may include real images, outputs from unknown generators, or even samples from the target model itself. The proposed method encourages wild samples to be classified as non target while explicitly constraining performance on labeled data to remain high. Experimental results show that incorporating wild data substantially improves attribution performance on challenging unseen generators, demonstrating that unlabeled data from the wild can be effectively exploited to enhance AI generated content attribution in open world settings.
- Abstract(参考訳): フォトリアリスティック生成モデルの急速な進歩は、与えられた画像を生成する特定のモデルを特定するために、バイナリリアルまたは偽検出を越えて、合成コンテンツの起源を判断することがますます重要になっている。
対象とする生成モデル(例えば OpenAI Dalle 3) と実際の画像や様々な代替モデルで生成された画像を含む他のソースとを区別する問題について検討する。
先行研究において有効であることを示すCLIP機能と単純な線形分類器を用いて,ターゲットモデルと少数の既知のジェネレータのラベル付きデータのみを用いて,ターゲットジェネレータ属性の強いベースラインを確立する。
しかし、このベースラインは、より難しく、目に見えない、新しくリリースされたジェネレータに一般化するのに苦労している。
この制限に対処するために,インターネットから収集した実画像,未知のジェネレータからの出力,あるいはターゲットモデル自体からのサンプルを含むような,ラベルのないワイルドデータを活用する制約付き最適化手法を提案する。
提案手法は,ラベル付きデータの性能を高く保ちながら,野生サンプルを非標的として分類することを推奨する。
実験結果から、ワイルドデータの導入は、未確認なジェネレータに対する属性性能を著しく向上させ、ワイルドからのラベルなしデータを効果的に活用して、オープンワールド環境におけるAI生成コンテンツ属性の向上を図っている。
関連論文リスト
- Detecting Generated Images by Fitting Natural Image Distributions [75.31113784234877]
本稿では,自然画像と生成画像のデータ多様体間の幾何学的差異を利用した新しいフレームワークを提案する。
自然画像に対して一貫した出力を出力するために設計された関数対を用いるが、生成した関数に対しては発散出力を用いる。
データ多様体に沿った変換が、自然画像上で事前訓練された自己教師付きモデルの損失値に有意な変化をもたらす場合、画像は生成されたものとして識別される。
論文 参考訳(メタデータ) (2025-11-03T07:20:38Z) - Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - DiffuGen: Adaptable Approach for Generating Labeled Image Datasets using
Stable Diffusion Models [2.0935496890864207]
DiffuGenは、安定拡散モデルのパワーを利用してラベル付き画像データセットを効率的に作成する、シンプルで適応可能なアプローチである。
安定した拡散モデルを利用することで、我々のアプローチは生成されたデータセットの品質を保証するだけでなく、ラベル生成のための汎用的なソリューションも提供します。
論文 参考訳(メタデータ) (2023-09-01T04:42:03Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。