論文の概要: Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty
- arxiv url: http://arxiv.org/abs/2412.05897v1
- Date: Sun, 08 Dec 2024 11:32:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 23:11:44.077758
- Title: Detecting Discrepancies Between AI-Generated and Natural Images Using Uncertainty
- Title(参考訳): 不確実性を用いたAI生成画像と自然画像の相違検出
- Authors: Jun Nie, Yonggang Zhang, Tongliang Liu, Yiu-ming Cheung, Bo Han, Xinmei Tian,
- Abstract要約: 本稿では,誤用と関連するリスクを軽減するために,予測不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
- 参考スコア(独自算出の注目度): 91.64626435585643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a novel approach for detecting AI-generated images by leveraging predictive uncertainty to mitigate misuse and associated risks. The motivation arises from the fundamental assumption regarding the distributional discrepancy between natural and AI-generated images. The feasibility of distinguishing natural images from AI-generated ones is grounded in the distribution discrepancy between them. Predictive uncertainty offers an effective approach for capturing distribution shifts, thereby providing insights into detecting AI-generated images. Namely, as the distribution shift between training and testing data increases, model performance typically degrades, often accompanied by increased predictive uncertainty. Therefore, we propose to employ predictive uncertainty to reflect the discrepancies between AI-generated and natural images. In this context, the challenge lies in ensuring that the model has been trained over sufficient natural images to avoid the risk of determining the distribution of natural images as that of generated images. We propose to leverage large-scale pre-trained models to calculate the uncertainty as the score for detecting AI-generated images. This leads to a simple yet effective method for detecting AI-generated images using large-scale vision models: images that induce high uncertainty are identified as AI-generated. Comprehensive experiments across multiple benchmarks demonstrate the effectiveness of our method.
- Abstract(参考訳): 本研究では,誤用や関連リスクを軽減するために,予測の不確実性を利用してAI生成画像を検出する新しい手法を提案する。
この動機は、自然画像とAI生成画像の分布差に関する基本的な仮定から生じる。
自然画像とAI生成画像とを区別する可能性については,両者の分布の相違が背景にある。
予測の不確実性は、分散シフトをキャプチャするための効果的なアプローチを提供し、それによってAI生成画像の検出に関する洞察を提供する。
すなわち、トレーニングデータとテストデータの分散シフトが増加するにつれて、モデルの性能は低下し、しばしば予測の不確実性が増大する。
そこで本研究では,AI生成画像と自然画像の相違を反映した予測不確実性を活用することを提案する。
この文脈では、モデルが十分な自然画像に対してトレーニングされていることを保証し、自然画像の分布を生成画像として決定するリスクを回避することが課題である。
本稿では,AI生成画像の検出スコアとして,大規模事前学習モデルを用いて不確実性を計算することを提案する。
これにより、大規模な視覚モデルを用いたAI生成画像の簡易かつ効果的な検出が可能となる。
複数のベンチマークにまたがる総合的な実験により,本手法の有効性が示された。
関連論文リスト
- Diffusion Epistemic Uncertainty with Asymmetric Learning for Diffusion-Generated Image Detection [10.061197311881287]
生成した画像を検出するための非対称学習(DEUA)を用いた拡散認識不確実性(Diffusion Epistemic Uncertainty)を提案する。
ラプラス近似を用いて拡散疫学不確実性(DEU)推定を導入し,拡散生成試料の多様体へのデータの近接性を評価する。
論文 参考訳(メタデータ) (2026-01-21T03:57:15Z) - Detecting Generated Images by Fitting Natural Image Distributions [75.31113784234877]
本稿では,自然画像と生成画像のデータ多様体間の幾何学的差異を利用した新しいフレームワークを提案する。
自然画像に対して一貫した出力を出力するために設計された関数対を用いるが、生成した関数に対しては発散出力を用いる。
データ多様体に沿った変換が、自然画像上で事前訓練された自己教師付きモデルの損失値に有意な変化をもたらす場合、画像は生成されたものとして識別される。
論文 参考訳(メタデータ) (2025-11-03T07:20:38Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Are vision language models robust to uncertain inputs? [5.249651874118556]
より新しい視覚言語モデルでは、従来のモデルに比べて頑健性が向上したが、それでも厳密な指示に従う傾向にあることを示す。
ImageNetのような自然なイメージでは、パイプラインの変更なしにこの制限を克服することができる。
モデルの内部不確実性を明らかにするために,キャプションの多様性に基づく新しいメカニズムを提案する。
論文 参考訳(メタデータ) (2025-05-17T03:16:49Z) - Bayesian generative models can flag performance loss, bias, and out-of-distribution image content [15.835055687646507]
生成モデルは、異常検出、特徴抽出、データの可視化、画像生成などの医療画像タスクに人気がある。
ディープラーニングモデルによってパラメータ化されているため、分散シフトに敏感であり、アウト・オブ・ディストリビューションデータに適用しても信頼できないことが多い。
我々は,インク,定規,パッチなどの分布外画像コンテンツを検出する画素ワイド不確実性を示す。
論文 参考訳(メタデータ) (2025-03-21T18:45:28Z) - Self-Supervised Learning for Detecting AI-Generated Faces as Anomalies [58.11545090128854]
本稿では、写真顔画像から純粋にカメラ固有の特徴と顔特有の特徴の自己教師付き学習を活用することで、AI生成顔の異常検出手法について述べる。
提案手法の成功は,特徴抽出器を訓練して4つの通常交換可能な画像ファイルフォーマット(EXIF)をランク付けし,人工的に操作された顔画像の分類を行うプリテキストタスクを設計することにある。
論文 参考訳(メタデータ) (2025-01-04T06:23:24Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Confidence-Aware and Self-Supervised Image Anomaly Localisation [7.099105239108548]
本稿では,ゆるやかな特徴的局所性制約による確率的推論の近似を支援する,自己教師付きシングルクラストレーニング戦略について論じる。
提案手法は,複数のオフ・オブ・ディストリビューション(OOD)検出モデルに統合されている。
論文 参考訳(メタデータ) (2023-03-23T12:48:47Z) - Image-to-Image Regression with Distribution-Free Uncertainty
Quantification and Applications in Imaging [88.20869695803631]
真値を含むことが保証される各画素の周囲の不確実な間隔を導出する方法を示す。
画像から画像への回帰を3つのタスクで評価する。
論文 参考訳(メタデータ) (2022-02-10T18:59:56Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。