論文の概要: Epistemic Uncertainty for Generated Image Detection
- arxiv url: http://arxiv.org/abs/2412.05897v2
- Date: Mon, 03 Nov 2025 07:06:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 20:19:58.355932
- Title: Epistemic Uncertainty for Generated Image Detection
- Title(参考訳): 画像検出のためのてんかん不確かさ
- Authors: Jun Nie, Yonggang Zhang, Tongliang Liu, Yiu-ming Cheung, Bo Han, Xinmei Tian,
- Abstract要約: 本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
- 参考スコア(独自算出の注目度): 107.62647907393377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel framework for AI-generated image detection through epistemic uncertainty, aiming to address critical security concerns in the era of generative models. Our key insight stems from the observation that distributional discrepancies between training and testing data manifest distinctively in the epistemic uncertainty space of machine learning models. In this context, the distribution shift between natural and generated images leads to elevated epistemic uncertainty in models trained on natural images when evaluating generated ones. Hence, we exploit this phenomenon by using epistemic uncertainty as a proxy for detecting generated images. This converts the challenge of generated image detection into the problem of uncertainty estimation, underscoring the generalization performance of the model used for uncertainty estimation. Fortunately, advanced large-scale vision models pre-trained on extensive natural images have shown excellent generalization performance for various scenarios. Thus, we utilize these pre-trained models to estimate the epistemic uncertainty of images and flag those with high uncertainty as generated. Extensive experiments demonstrate the efficacy of our method. Code is available at https://github.com/tmlr-group/WePe.
- Abstract(参考訳): 本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
この文脈では、自然画像と生成画像の分布変化は、生成画像を評価する際に、自然画像上で訓練されたモデルにおいて、高い疫学的不確実性をもたらす。
そこで我々は、この現象を、発生した画像を検出するためのプロキシとして、てんかん不確実性を用いて活用する。
これにより、生成した画像検出の課題を不確実性推定の問題に変換し、不確実性推定に用いるモデルの一般化性能を裏付ける。
幸運なことに、広範囲の自然画像に事前訓練された高度な大規模視覚モデルでは、様々なシナリオにおいて優れた一般化性能を示している。
そこで、これらの事前学習モデルを用いて、画像の疫学的な不確実性を推定し、高い不確実性を発生としてフラグを立てる。
大規模な実験により,本手法の有効性が示された。
コードはhttps://github.com/tmlr-group/WePe.comで入手できる。
関連論文リスト
- RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Self-Supervised Learning for Detecting AI-Generated Faces as Anomalies [58.11545090128854]
本稿では、写真顔画像から純粋にカメラ固有の特徴と顔特有の特徴の自己教師付き学習を活用することで、AI生成顔の異常検出手法について述べる。
提案手法の成功は,特徴抽出器を訓練して4つの通常交換可能な画像ファイルフォーマット(EXIF)をランク付けし,人工的に操作された顔画像の分類を行うプリテキストタスクを設計することにある。
論文 参考訳(メタデータ) (2025-01-04T06:23:24Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Confidence-Aware and Self-Supervised Image Anomaly Localisation [7.099105239108548]
本稿では,ゆるやかな特徴的局所性制約による確率的推論の近似を支援する,自己教師付きシングルクラストレーニング戦略について論じる。
提案手法は,複数のオフ・オブ・ディストリビューション(OOD)検出モデルに統合されている。
論文 参考訳(メタデータ) (2023-03-23T12:48:47Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。