論文の概要: RealStats: A Rigorous Real-Only Statistical Framework for Fake Image Detection
- arxiv url: http://arxiv.org/abs/2601.18900v1
- Date: Mon, 26 Jan 2026 19:11:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.033382
- Title: RealStats: A Rigorous Real-Only Statistical Framework for Fake Image Detection
- Title(参考訳): RealStats:フェイク画像検出のための厳格な統計フレームワーク
- Authors: Haim Zisman, Uri Shaham,
- Abstract要約: 本稿では,実画像に対して解釈可能な確率スコアを生成することに焦点を当てた,厳密で統計的に基盤付けられた偽画像検出フレームワークを提案する。
このフレームワークは汎用的でフレキシブルで、トレーニング不要で、多様な、進化する設定にわたって堅牢なフェイクイメージ検出に適している。
- 参考スコア(独自算出の注目度): 3.4104142774745996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative models continue to evolve, detecting AI-generated images remains a critical challenge. While effective detection methods exist, they often lack formal interpretability and may rely on implicit assumptions about fake content, potentially limiting robustness to distributional shifts. In this work, we introduce a rigorous, statistically grounded framework for fake image detection that focuses on producing a probability score interpretable with respect to the real-image population. Our method leverages the strengths of multiple existing detectors by combining training-free statistics. We compute p-values over a range of test statistics and aggregate them using classical statistical ensembling to assess alignment with the unified real-image distribution. This framework is generic, flexible, and training-free, making it well-suited for robust fake image detection across diverse and evolving settings.
- Abstract(参考訳): 生成モデルが進化を続けるにつれ、AI生成画像の検出は依然として重要な課題である。
効果的な検出法は存在するが、形式的な解釈可能性に欠けることが多く、偽コンテンツに関する暗黙の仮定に頼り、分散シフトに対する堅牢性を制限する可能性がある。
本研究では,実画像に対して解釈可能な確率スコアを生成することに焦点を当てた,厳密で統計的に基盤付けられた偽画像検出フレームワークを提案する。
本手法は, トレーニング不要な統計値を組み合わせることで, 複数の既存検出器の強度を利用する。
我々は、様々なテスト統計量にわたってp値を計算し、それらを古典的な統計アンサンブルを用いて集約し、統合された実像分布との整合性を評価する。
このフレームワークは汎用的でフレキシブルで、トレーニング不要で、多様な、進化する設定で堅牢なフェイクイメージ検出に適している。
関連論文リスト
- PDA: Generalizable Detection of AI-Generated Images via Post-hoc Distribution Alignment [16.98090845687867]
ポストホック分布アライメント(PDA)は、AI生成画像の一般化可能な検出のための新しいアプローチである。
我々の研究は、現実の偽画像検出のためのフレキシブルで効果的なソリューションを提供し、検出システムの一般化能力を向上させる。
論文 参考訳(メタデータ) (2025-02-15T13:55:34Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Can Your Generative Model Detect Out-of-Distribution Covariate Shift? [2.0144831048903566]
条件付き正規化フロー(cNFs)を用いたOODセンサデータ検出のための新しい手法を提案する。
CIFAR10 対 CIFAR10-C と ImageNet200 対 ImageNet200-C では,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-09-04T19:27:56Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Masked Images Are Counterfactual Samples for Robust Fine-tuning [77.82348472169335]
微調整の深層学習モデルは、分布内(ID)性能と分布外(OOD)堅牢性の間のトレードオフにつながる可能性がある。
そこで本研究では,マスク付き画像を対物サンプルとして用いて,ファインチューニングモデルのロバスト性を向上させる新しいファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2023-03-06T11:51:28Z) - Image-to-Image Regression with Distribution-Free Uncertainty
Quantification and Applications in Imaging [88.20869695803631]
真値を含むことが保証される各画素の周囲の不確実な間隔を導出する方法を示す。
画像から画像への回帰を3つのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-10T18:59:56Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。