論文の概要: Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty
- arxiv url: http://arxiv.org/abs/2412.05897v1
- Date: Sun, 08 Dec 2024 11:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:57:32.495752
- Title: Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty
- Title(参考訳): 不確実性を用いたAI生成画像と自然画像の相違検出
- Authors: Jun Nie, Yonggang Zhang, Tongliang Liu, Yiu-ming Cheung, Bo Han, Xinmei Tian,
- Abstract要約: 本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
- 参考スコア(独自算出の注目度): 91.64626435585643
- License:
- Abstract: In this work, we propose a novel approach for detecting AI-generated images by leveraging predictive uncertainty to mitigate misuse and associated risks. The motivation arises from the fundamental assumption regarding the distributional discrepancy between natural and AI-generated images. The feasibility of distinguishing natural images from AI-generated ones is grounded in the distribution discrepancy between them. Predictive uncertainty offers an effective approach for capturing distribution shifts, thereby providing insights into detecting AI-generated images. Namely, as the distribution shift between training and testing data increases, model performance typically degrades, often accompanied by increased predictive uncertainty. Therefore, we propose to employ predictive uncertainty to reflect the discrepancies between AI-generated and natural images. In this context, the challenge lies in ensuring that the model has been trained over sufficient natural images to avoid the risk of determining the distribution of natural images as that of generated images. We propose to leverage large-scale pre-trained models to calculate the uncertainty as the score for detecting AI-generated images. This leads to a simple yet effective method for detecting AI-generated images using large-scale vision models: images that induce high uncertainty are identified as AI-generated. Comprehensive experiments across multiple benchmarks demonstrate the effectiveness of our method.
- Abstract(参考訳): 本研究では,誤用や関連リスクを軽減するために,予測の不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
自然画像とAI生成画像とを区別する可能性については,両者の分布の相違が背景にある。
予測の不確実性は、分散シフトをキャプチャするための効果的なアプローチを提供し、それによってAI生成画像の検出に関する洞察を提供する。
すなわち、トレーニングデータとテストデータの分散シフトが増加するにつれて、モデルの性能は低下し、しばしば予測の不確実性が増大する。
そこで本研究では,AI生成画像と自然画像の相違を反映した予測不確実性を活用することを提案する。
この文脈では、モデルが十分な自然画像に対してトレーニングされていることを保証し、自然画像の分布を生成画像として決定するリスクを回避することが課題である。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
これにより、大規模な視覚モデルを用いたAI生成画像の簡易かつ効果的な検出が可能となる。
複数のベンチマークにまたがる総合的な実験により,本手法の有効性が示された。
関連論文リスト
- Self-Supervised Learning for Detecting AI-Generated Faces as Anomalies [58.11545090128854]
本稿では、写真顔画像から純粋にカメラ固有の特徴と顔特有の特徴の自己教師付き学習を活用することで、AI生成顔の異常検出手法について述べる。
提案手法の成功は,特徴抽出器を訓練して4つの通常交換可能な画像ファイルフォーマット(EXIF)をランク付けし,人工的に操作された顔画像の分類を行うプリテキストタスクを設計することにある。
論文 参考訳(メタデータ) (2025-01-04T06:23:24Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Confidence-Aware and Self-Supervised Image Anomaly Localisation [7.099105239108548]
本稿では,ゆるやかな特徴的局所性制約による確率的推論の近似を支援する,自己教師付きシングルクラストレーニング戦略について論じる。
提案手法は,複数のオフ・オブ・ディストリビューション(OOD)検出モデルに統合されている。
論文 参考訳(メタデータ) (2023-03-23T12:48:47Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。