論文の概要: GenDet: Towards Good Generalizations for AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2312.08880v1
- Date: Tue, 12 Dec 2023 11:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 22:24:42.864427
- Title: GenDet: Towards Good Generalizations for AI-Generated Image Detection
- Title(参考訳): GenDet: AI生成画像検出のための優れた一般化を目指して
- Authors: Mingjian Zhu, Hanting Chen, Mouxiao Huang, Wei Li, Hailin Hu, Jie Hu,
Yunhe Wang
- Abstract要約: 既存の方法では、目に見えないジェネレータが生成した画像を効果的に検出できるが、見えないジェネレータが生成した画像を検出することは困難である。
本稿では、異常検出の観点から、この課題を考慮し、未知のジェネレータ検出問題に対処する。
提案手法は,実画像の教師モデルと学生モデルとの出力の差を小さくし,偽画像の差を大きくすることを目的としている。
- 参考スコア(独自算出の注目度): 27.899521298845357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The misuse of AI imagery can have harmful societal effects, prompting the
creation of detectors to combat issues like the spread of fake news. Existing
methods can effectively detect images generated by seen generators, but it is
challenging to detect those generated by unseen generators. They do not
concentrate on amplifying the output discrepancy when detectors process real
versus fake images. This results in a close output distribution of real and
fake samples, increasing classification difficulty in detecting unseen
generators. This paper addresses the unseen-generator detection problem by
considering this task from the perspective of anomaly detection and proposes an
adversarial teacher-student discrepancy-aware framework. Our method encourages
smaller output discrepancies between the student and the teacher models for
real images while aiming for larger discrepancies for fake images. We employ
adversarial learning to train a feature augmenter, which promotes smaller
discrepancies between teacher and student networks when the inputs are fake
images. Our method has achieved state-of-the-art on public benchmarks, and the
visualization results show that a large output discrepancy is maintained when
faced with various types of generators.
- Abstract(参考訳): AI画像の誤用は、社会的に有害な影響をもたらす可能性があるため、偽ニュースの拡散のような問題に対処するための検出器の作成を促す。
既存の手法では, 発生源が生成した画像は効果的に検出できるが, 未知発生器が生成する画像を検出することは困難である。
彼らは、検出器が実画像と偽画像を処理するときの出力差を増幅することに集中しない。
これにより、実検体と偽検体が密接な出力分布となり、未検出のジェネレータ検出の分類が困難になる。
本稿では, この課題を異常検出の観点から考察し, 対向的な教師・学生間の不一致認識フレームワークを提案する。
本手法は,偽画像に対する大きな差異を想定しながら,実画像に対する生徒と教師モデルの出力差を小さくする。
我々は,教師と学生のネットワーク間の差を小さくし,入力が偽画像である場合に,対角学習を用いて特徴増強器を訓練する。
提案手法は, 公開ベンチマークにおいて最先端の手法であり, 可視化結果から, 様々な種類のジェネレータに直面すると, 高い出力差が維持されることが示された。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Detecting AutoEncoder is Enough to Catch LDM Generated Images [0.0]
本稿では,自己エンコーダが導入したアーティファクトを識別することで,LDM(Latent Diffusion Models)によって生成された画像を検出する手法を提案する。
LDMオートエンコーダによって再構成された画像と実際の画像とを区別するように検出器を訓練することにより、直接トレーニングすることなく、生成された画像を検出することができる。
実験の結果,最小限の偽陽性で高い検出精度を示し,この手法は偽画像と戦うための有望なツールとなる。
論文 参考訳(メタデータ) (2024-11-10T12:17:32Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Towards Universal Fake Image Detectors that Generalize Across Generative Models [36.18427140427858]
実Vsフェイク分類のためのディープネットワークを訓練する既存のパラダイムは、新しい世代生成モデルから偽画像を検出するのに失敗していることを示す。
実写画像と実写画像の区別を明示的に訓練されていない特徴空間を用いて,学習せずに実写映像の分類を行うことを提案する。
論文 参考訳(メタデータ) (2023-02-20T18:59:04Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z) - Just Noticeable Difference for Machines to Generate Adversarial Images [0.34376560669160383]
提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。
本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。
論文 参考訳(メタデータ) (2020-01-29T19:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。