論文の概要: Detecting Generated Images by Fitting Natural Image Distributions
- arxiv url: http://arxiv.org/abs/2511.01293v1
- Date: Mon, 03 Nov 2025 07:20:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.154034
- Title: Detecting Generated Images by Fitting Natural Image Distributions
- Title(参考訳): 自然画像分布の調整による生成画像の検出
- Authors: Yonggang Zhang, Jun Nie, Xinmei Tian, Mingming Gong, Kun Zhang, Bo Han,
- Abstract要約: 本稿では,自然画像と生成画像のデータ多様体間の幾何学的差異を利用した新しいフレームワークを提案する。
自然画像に対して一貫した出力を出力するために設計された関数対を用いるが、生成した関数に対しては発散出力を用いる。
データ多様体に沿った変換が、自然画像上で事前訓練された自己教師付きモデルの損失値に有意な変化をもたらす場合、画像は生成されたものとして識別される。
- 参考スコア(独自算出の注目度): 75.31113784234877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing realism of generated images has raised significant concerns about their potential misuse, necessitating robust detection methods. Current approaches mainly rely on training binary classifiers, which depend heavily on the quantity and quality of available generated images. In this work, we propose a novel framework that exploits geometric differences between the data manifolds of natural and generated images. To exploit this difference, we employ a pair of functions engineered to yield consistent outputs for natural images but divergent outputs for generated ones, leveraging the property that their gradients reside in mutually orthogonal subspaces. This design enables a simple yet effective detection method: an image is identified as generated if a transformation along its data manifold induces a significant change in the loss value of a self-supervised model pre-trained on natural images. Further more, to address diminishing manifold disparities in advanced generative models, we leverage normalizing flows to amplify detectable differences by extruding generated images away from the natural image manifold. Extensive experiments demonstrate the efficacy of this method. Code is available at https://github.com/tmlr-group/ConV.
- Abstract(参考訳): 生成画像のリアリズムの増大は、その潜在的な誤用に対して重大な懸念を引き起こし、堅牢な検出方法を必要としている。
現在のアプローチは主にバイナリ分類器のトレーニングに依存しており、利用可能な生成画像の量と品質に大きく依存している。
本研究では,自然画像と生成画像のデータ多様体間の幾何学的差異を利用した新しいフレームワークを提案する。
この差を利用するために、自然な画像に対して一貫した出力を得るために設計された関数対を用いるが、生成した画像に対して発散する出力は、それらの勾配が相互直交部分空間に存在するという特性を利用する。
本設計では,データ多様体に沿った変換が自然画像に事前学習された自己教師付きモデルの損失値に有意な変化をもたらす場合,画像が生成として識別される,簡易かつ効果的な検出方法を実現する。
さらに、先進的な生成モデルにおける減少する多様体の相違に対処するために、正規化フローを利用して、生成した画像を自然な画像多様体から遠ざけ、検出可能な差を増幅する。
大規模な実験は、この方法の有効性を実証している。
コードはhttps://github.com/tmlr-group/ConV.orgで公開されている。
関連論文リスト
- Time Step Generating: A Universal Synthesized Deepfake Image Detector [0.4488895231267077]
汎用合成画像検出器 Time Step Generating (TSG) を提案する。
TSGは、事前訓練されたモデルの再構築能力、特定のデータセット、サンプリングアルゴリズムに依存していない。
我々は,提案したTSGを大規模GenImageベンチマークで検証し,精度と一般化性の両方において大幅な改善を実現した。
論文 参考訳(メタデータ) (2024-11-17T09:39:50Z) - Varying Manifolds in Diffusion: From Time-varying Geometries to Visual Saliency [25.632973225129728]
前方拡散過程と逆生成過程が多様体上の一連の分布を構成する拡散モデルの幾何学的性質について検討する。
生成速度は画像成分の視覚的明瞭度などの直感的な視覚特性と高い相関性を示す。
本稿では,画像成分の生成速度を時間とともに推定し,生成曲線を導出する効率的かつ微分可能な手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T07:32:41Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Transfer Learning of Real Image Features with Soft Contrastive Loss for Fake Image Detection [15.89388721108276]
自然トレース抽出のための自己教師付き特徴マッピングプロセスを導入し,ソフトコントラストロスに基づく伝達学習を開発する。
これにより、検出器は自然なトレースへの画像の近接に基づいて決定を行う。
提案手法では,96.2%のmAPがベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-03-25T07:58:58Z) - Real-World Image Variation by Aligning Diffusion Inversion Chain [53.772004619296794]
生成した画像と実世界の画像の間にはドメインギャップがあり、これは実世界の画像の高品質なバリエーションを生成する上での課題である。
実世界画像のアライメントによる変化(RIVAL)と呼ばれる新しい推論パイプラインを提案する。
我々のパイプラインは、画像生成プロセスとソース画像の反転チェーンを整列させることにより、画像の変動の生成品質を向上させる。
論文 参考訳(メタデータ) (2023-05-30T04:09:47Z) - Image Deblurring by Exploring In-depth Properties of Transformer [86.7039249037193]
我々は、事前訓練された視覚変換器(ViT)から抽出した深い特徴を活用し、定量的な測定値によって測定された性能を犠牲にすることなく、回復した画像のシャープ化を促進する。
得られた画像と対象画像の変換器特徴を比較することにより、事前学習された変換器は、高解像度のぼやけた意味情報を提供する。
特徴をベクトルとみなし、抽出された画像から抽出された表現とユークリッド空間における対象表現との差を計算する。
論文 参考訳(メタデータ) (2023-03-24T14:14:25Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。