論文の概要: Alteration-free and Model-agnostic Origin Attribution of Generated
Images
- arxiv url: http://arxiv.org/abs/2305.18439v1
- Date: Mon, 29 May 2023 01:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 21:04:44.629045
- Title: Alteration-free and Model-agnostic Origin Attribution of Generated
Images
- Title(参考訳): 生成画像の変質とモデル非依存な原点帰属
- Authors: Zhenting Wang, Chen Chen, Yi Zeng, Lingjuan Lyu, Shiqing Ma
- Abstract要約: 画像生成モデルの誤用が懸念されている。
特定の画像が特定のモデルによって生成されたかどうかを推測することにより、画像の起源を分析する必要がある。
- 参考スコア(独自算出の注目度): 28.34437698362946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there has been a growing attention in image generation models.
However, concerns have emerged regarding potential misuse and intellectual
property (IP) infringement associated with these models. Therefore, it is
necessary to analyze the origin of images by inferring if a specific image was
generated by a particular model, i.e., origin attribution. Existing methods are
limited in their applicability to specific types of generative models and
require additional steps during training or generation. This restricts their
use with pre-trained models that lack these specific operations and may
compromise the quality of image generation. To overcome this problem, we first
develop an alteration-free and model-agnostic origin attribution method via
input reverse-engineering on image generation models, i.e., inverting the input
of a particular model for a specific image. Given a particular model, we first
analyze the differences in the hardness of reverse-engineering tasks for the
generated images of the given model and other images. Based on our analysis, we
propose a method that utilizes the reconstruction loss of reverse-engineering
to infer the origin. Our proposed method effectively distinguishes between
generated images from a specific generative model and other images, including
those generated by different models and real images.
- Abstract(参考訳): 近年,画像生成モデルに注目が集まっている。
しかし、これらのモデルに関連する悪用と知的財産権(ip)侵害の懸念が浮上している。
したがって、特定の画像が特定のモデル、すなわち、原点属性によって生成されたかどうかを推定することにより、画像の起源を分析する必要がある。
既存の方法は、特定の生成モデルに適用可能であり、トレーニングや生成の間に追加のステップを必要とする。
これにより、これらの特定の操作がなく、画像生成の品質を損なう可能性のある事前訓練されたモデルの使用が制限される。
この問題を克服するために,まず,特定の画像に対する特定のモデルの入力を反転する画像生成モデルに対する入力リバースエンジニアリングを通じて,変更のないモデル非依存な起源帰属法を開発した。
特定のモデルが与えられた場合、まず、生成したモデルや他の画像の逆エンジニアリングタスクの硬さの違いを解析する。
そこで本研究では,リバースエンジニアリングの再構築損失を利用して起源を推定する手法を提案する。
提案手法は,特定の生成モデルから生成された画像と,異なるモデルや実画像から生成された画像とを効果的に識別する。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Relational Inductive Biases for Object-Centric Image Generation [10.219833196479142]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件付き画像生成手法を提案する。
本稿では,その構造と関連するスタイルを表す属性グラフ上の画像中の特定のオブジェクトの生成を条件付ける手法を提案する。
提案フレームワークは、基礎となるグラフと出力画像となる2Dグリッドの両方で動作する畳み込み演算子を組み合わせたニューラルネットワークアーキテクチャを用いて実装されている。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Consistency Models [89.68380014789861]
ノイズを直接データにマッピングすることで,高品質なサンプルを生成する新しいモデル群を提案する。
設計によって高速なワンステップ生成をサポートしながら、マルチステップサンプリングによって、サンプル品質の計算を交換することができる。
イメージインペイント、カラー化、超高解像度といったゼロショットデータ編集も、明示的なトレーニングを必要とせずサポートしている。
論文 参考訳(メタデータ) (2023-03-02T18:30:16Z) - Taming Normalizing Flows [22.15640952962115]
本稿では,正規化フローモデルを用いるアルゴリズムを提案する。
与えられた画像の正確な生成確率を計算することができるため,フローの正規化に着目する。
モデリングは、モデルをスクラッチからトレーニングすることなく、高速な微調整プロセスで達成され、数分でゴールを達成します。
論文 参考訳(メタデータ) (2022-11-29T18:56:04Z) - DiffGAR: Model-Agnostic Restoration from Generative Artifacts Using
Image-to-Image Diffusion Models [46.46919194633776]
この作業は、多様な生成モデルのためのプラグイン後処理モジュールの開発を目的としている。
従来の劣化パターンとは異なり、生成アーティファクトは非線形であり、変換関数は非常に複雑である。
論文 参考訳(メタデータ) (2022-10-16T16:08:47Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。