論文の概要: Your AI-Generated Image Detector Can Secretly Achieve SOTA Accuracy, If Calibrated
- arxiv url: http://arxiv.org/abs/2602.01973v1
- Date: Mon, 02 Feb 2026 11:26:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.105036
- Title: Your AI-Generated Image Detector Can Secretly Achieve SOTA Accuracy, If Calibrated
- Title(参考訳): AIで生成した画像検出装置は、校正された場合、SOTAの精度を秘かに達成できる
- Authors: Muli Yang, Gabriel James Goenawan, Henan Wang, Huaiyuan Qin, Chenghao Xu, Yanhua Yang, Fen Fang, Ying Sun, Joo-Hwee Lim, Hongyuan Zhu,
- Abstract要約: バランスの取れたデータセットでトレーニングされているにもかかわらず、既存のAI生成イメージ検出器はテスト時に体系的なバイアスを示すことが多い。
ベイズ決定理論に基づく理論的に基礎付けられたポストホック校正フレームワークを提案する。
我々のアプローチは、信頼性と適応性のあるAI生成画像検出のための軽量で原則化されたソリューションを提供するため、再トレーニングなしにロバスト性を大幅に改善する。
- 参考スコア(独自算出の注目度): 40.02006384527024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite being trained on balanced datasets, existing AI-generated image detectors often exhibit systematic bias at test time, frequently misclassifying fake images as real. We hypothesize that this behavior stems from distributional shift in fake samples and implicit priors learned during training. Specifically, models tend to overfit to superficial artifacts that do not generalize well across different generation methods, leading to a misaligned decision threshold when faced with test-time distribution shift. To address this, we propose a theoretically grounded post-hoc calibration framework based on Bayesian decision theory. In particular, we introduce a learnable scalar correction to the model's logits, optimized on a small validation set from the target distribution while keeping the backbone frozen. This parametric adjustment compensates for distributional shift in model output, realigning the decision boundary even without requiring ground-truth labels. Experiments on challenging benchmarks show that our approach significantly improves robustness without retraining, offering a lightweight and principled solution for reliable and adaptive AI-generated image detection in the open world. Code is available at https://github.com/muliyangm/AIGI-Det-Calib.
- Abstract(参考訳): バランスの取れたデータセットでトレーニングされているにもかかわらず、既存のAI生成画像検出器はテスト時に体系的なバイアスを示し、しばしば偽の画像を本物と誤分類する。
この行動は、偽サンプルの分布変化と、トレーニング中に学んだ暗黙の先行性に起因すると仮定する。
特に、モデルは、異なる生成方法でうまく一般化しない表面的アーティファクトに過度に適合する傾向にあり、テスト時間分布シフトに直面した場合、不整合決定しきい値となる。
この問題に対処するために,ベイズ決定理論に基づく理論的に基礎付けられたポストホックキャリブレーションフレームワークを提案する。
特に、学習可能なスカラー補正をモデルのロジットに導入し、ターゲット分布からの小さな検証セットに最適化し、バックボーンを凍結したままにしておく。
このパラメトリック調整は、モデル出力の分布シフトを補償し、グランドトルースラベルを必要とせずに決定境界を無視する。
挑戦的なベンチマークの実験では、オープンな世界で信頼性と適応性のあるAI生成画像検出のための軽量で原則化されたソリューションを提供することにより、リトレーニングなしでロバスト性を大幅に向上することが示された。
コードはhttps://github.com/muliyangm/AIGI-Det-Calibで入手できる。
関連論文リスト
- Towards Generalizable AI-Generated Image Detection via Image-Adaptive Prompt Learning [33.269644831847636]
画像適応型プロンプト学習(IAPL)は、学習後に修正するのではなく、各入力画像に応じてプロンプトを調整する新しいパラダイムである。
IAPLは、広く使われているUniversalFakeDetectとGenImageデータセットで95.61%と96.7%の精度で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-03T05:41:24Z) - Anomalies by Synthesis: Anomaly Detection using Generative Diffusion Models for Off-Road Navigation [38.106905905633305]
画素ワイド異常検出のための解析・合成手法を提案する。
拡散モデルによりどの画像セグメントが修正されたかを分析するために,異常検出を定式化する。
私たちの編集技術は純粋にテスト時間であり、既存の基盤に統合することができます。
論文 参考訳(メタデータ) (2025-05-28T19:26:48Z) - Importance of Disjoint Sampling in Conventional and Transformer Models for Hyperspectral Image Classification [2.1223532600703385]
本稿では、ハイパースペクトル画像分類(HSIC)タスク上でSOTAモデルをトレーニングするための革新的な不整合サンプリング手法を提案する。
重なりのないトレーニング,検証,テストデータを分離することにより,提案手法は,トレーニングや検証中に露出していないピクセルをどの程度正確に分類できるかを,より公平に評価することができる。
この厳密な手法は、SOTAモデルの発展と、ハイパースペクトルセンサーを用いた大規模陸地マッピングへの実際の応用に欠かせない。
論文 参考訳(メタデータ) (2024-04-23T11:40:52Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - On-the-Fly Test-time Adaptation for Medical Image Segmentation [63.476899335138164]
ソースモデルをテスト時にターゲットデータに適応させることは、データシフト問題に対する効率的な解決策である。
本稿では、各畳み込みブロックに適応バッチ正規化層を設けるAdaptive UNetという新しいフレームワークを提案する。
テスト期間中、モデルは新しいテストイメージのみを取り込み、ドメインコードを生成して、テストデータに従ってソースモデルの特徴を適応させる。
論文 参考訳(メタデータ) (2022-03-10T18:51:29Z) - Certifying Model Accuracy under Distribution Shifts [151.67113334248464]
本稿では,データ分布の有界ワッサースタインシフトの下でのモデルの精度について,証明可能なロバスト性保証を提案する。
変換空間におけるモデルの入力をランダム化する単純な手順は、変換の下での分布シフトに対して確実に堅牢であることを示す。
論文 参考訳(メタデータ) (2022-01-28T22:03:50Z) - Training on Test Data with Bayesian Adaptation for Covariate Shift [96.3250517412545]
ディープニューラルネットワークは、信頼できない不確実性推定で不正確な予測を行うことが多い。
分布シフトの下でのラベルなし入力とモデルパラメータとの明確に定義された関係を提供するベイズモデルを導出する。
本手法は精度と不確実性の両方を向上することを示す。
論文 参考訳(メタデータ) (2021-09-27T01:09:08Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。