論文の概要: Manifold Induced Biases for Zero-shot and Few-shot Detection of Generated Images
- arxiv url: http://arxiv.org/abs/2504.15470v1
- Date: Mon, 21 Apr 2025 22:39:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-01 01:14:34.958691
- Title: Manifold Induced Biases for Zero-shot and Few-shot Detection of Generated Images
- Title(参考訳): 生成画像のゼロショット検出とFewショット検出のためのマニフォールド誘導バイアス
- Authors: Jonathan Brokman, Amit Giloni, Omer Hofman, Roman Vainshtein, Hisashi Kojima, Guy Gilboa,
- Abstract要約: 我々は,(1)理論的な根拠の欠如,(2)ゼロショットと少数ショットの制度における性能改善のための重要な余地,の2つの主要なギャップを同定する。
具体的には,事前学習した拡散モデルにより得られた暗黙的確率多様体のバイアスについて検討する。
スコア関数解析により、確率多様体上の点に対する曲率、勾配、偏りを近似し、ゼロショット状態における検出基準を確立する。
20個の生成モデルにまたがる実験結果から,本手法はゼロショット設定と少数ショット設定の両方において,現在の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 4.597145995119321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distinguishing between real and AI-generated images, commonly referred to as 'image detection', presents a timely and significant challenge. Despite extensive research in the (semi-)supervised regime, zero-shot and few-shot solutions have only recently emerged as promising alternatives. Their main advantage is in alleviating the ongoing data maintenance, which quickly becomes outdated due to advances in generative technologies. We identify two main gaps: (1) a lack of theoretical grounding for the methods, and (2) significant room for performance improvements in zero-shot and few-shot regimes. Our approach is founded on understanding and quantifying the biases inherent in generated content, where we use these quantities as criteria for characterizing generated images. Specifically, we explore the biases of the implicit probability manifold, captured by a pre-trained diffusion model. Through score-function analysis, we approximate the curvature, gradient, and bias towards points on the probability manifold, establishing criteria for detection in the zero-shot regime. We further extend our contribution to the few-shot setting by employing a mixture-of-experts methodology. Empirical results across 20 generative models demonstrate that our method outperforms current approaches in both zero-shot and few-shot settings. This work advances the theoretical understanding and practical usage of generated content biases through the lens of manifold analysis.
- Abstract(参考訳): 実画像とAI生成画像の区別(通称「画像検出」)は、タイムリーで重要な課題である。
半監督体制の広範な研究にもかかわらず、ゼロショットと少数ショットのソリューションは、将来性のある代替案として最近登場したばかりである。
その主な利点は、進行中のデータメンテナンスを緩和することであり、生成技術の進歩により、すぐに時代遅れになる。
我々は,(1)理論的な根拠の欠如,(2)ゼロショットと少数ショットの制度における性能改善のための重要な余地,の2つの主要なギャップを同定する。
我々のアプローチは、生成したコンテンツに固有のバイアスを理解し定量化することに基づいており、生成した画像の特徴付けの基準としてこれらの量を用いる。
具体的には,事前学習した拡散モデルにより得られた暗黙的確率多様体のバイアスについて検討する。
スコア関数解析により、確率多様体上の点に対する曲率、勾配、偏りを近似し、ゼロショット状態における検出基準を確立する。
我々はさらに、Mix-of-experts手法を用いて、いくつかのショットセッティングへの貢献を拡大する。
20個の生成モデルにまたがる実験結果から,本手法はゼロショット設定と少数ショット設定の両方において,現在の手法よりも優れていることが示された。
この研究は、多様体解析のレンズを通して生成されたコンテンツバイアスの理論的理解と実用的利用を推し進める。
関連論文リスト
- A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Forensic Self-Descriptions Are All You Need for Zero-Shot Detection, Open-Set Source Attribution, and Clustering of AI-generated Images [8.167678851224121]
従来の手法では、トレーニング中に既知のソースに特有の機能に依存するため、見えないジェネレータに一般化できない。
本稿では,法医学的微細構造を明示的にモデル化する新しい手法を提案する。
この自己記述により、合成画像のゼロショット検出、画像のオープンセットソース属性、および事前知識のないソースに基づくクラスタリングを行うことができる。
論文 参考訳(メタデータ) (2025-03-26T21:34:37Z) - Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty [91.64626435585643]
本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Learning Diffusion Model from Noisy Measurement using Principled Expectation-Maximization Method [9.173055778539641]
本稿では,任意の破損型を持つ雑音データから拡散モデルを反復的に学習する,原則的予測最大化(EM)フレームワークを提案する。
筆者らはモンテカルロ法を用いて,ノイズ測定からクリーンな画像を正確に推定し,次いで再構成画像を用いて拡散モデルを訓練した。
論文 参考訳(メタデータ) (2024-10-15T03:54:59Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Simultaneous Image-to-Zero and Zero-to-Noise: Diffusion Models with Analytical Image Attenuation [53.04220377034574]
高品質(未条件)な画像生成のための前方拡散プロセスに解析的画像減衰プロセスを導入することを提案する。
本手法は,フォワード画像からノイズへのマッピングを,テクスチメジからゼロへのマッピングとテクスティケロ・ツー・ノイズマッピングの同時マッピングとして表現する。
我々は,CIFAR-10やCelebA-HQ-256などの無条件画像生成や,超解像,サリエンシ検出,エッジ検出,画像インペインティングなどの画像条件下での下流処理について実験を行った。
論文 参考訳(メタデータ) (2023-06-23T18:08:00Z) - Meta-Learned Kernel For Blind Super-Resolution Kernel Estimation [22.437479940607332]
本稿では,画像の分布に含まれる情報からメタ学習を行う学習学習アプローチを提案する。
提案手法は,既存手法よりも14.24~102.1倍高速に推算できることを示す。
論文 参考訳(メタデータ) (2022-12-15T15:11:38Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Image-Based Sorghum Head Counting When You Only Look Once [16.43087660376697]
デジタル農業の最近のトレンドは、作物の品質評価と収量推定のために人工知能にシフトしている。
本研究では,パラメータ調整された単発物体検出アルゴリズムを用いて,空中ドローン画像からソルガム頭部を識別・カウントする方法について述べる。
論文 参考訳(メタデータ) (2020-09-24T19:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。