論文の概要: Stay-Positive: A Case for Ignoring Real Image Features in Fake Image Detection
- arxiv url: http://arxiv.org/abs/2502.07778v1
- Date: Tue, 11 Feb 2025 18:59:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:28.504564
- Title: Stay-Positive: A Case for Ignoring Real Image Features in Fake Image Detection
- Title(参考訳): Stay-Positive:偽画像検出における実像特徴の無視の1例
- Authors: Anirudh Sundara Rajan, Yong Jae Lee,
- Abstract要約: 生成モデルによって導入されたアーティファクトを含む場合に限り、画像は偽物として分類されるべきである。
本研究では,実データに関連付けられているものを無視しながら,検出対象を生成成果物に限定するアルゴリズムであるStay Positiveを提案する。
- 参考スコア(独自算出の注目度): 31.23513370504603
- License:
- Abstract: Detecting AI generated images is a challenging yet essential task. A primary difficulty arises from the detectors tendency to rely on spurious patterns, such as compression artifacts, which can influence its decisions. These issues often stem from specific patterns that the detector associates with the real data distribution, making it difficult to isolate the actual generative traces. We argue that an image should be classified as fake if and only if it contains artifacts introduced by the generative model. Based on this premise, we propose Stay Positive, an algorithm designed to constrain the detectors focus to generative artifacts while disregarding those associated with real data. Experimental results demonstrate that detectors trained with Stay Positive exhibit reduced susceptibility to spurious correlations, leading to improved generalization and robustness to post processing. Additionally, unlike detectors that associate artifacts with real images, those that focus purely on fake artifacts are better at detecting inpainted real images.
- Abstract(参考訳): AI生成画像の検出は、難しいが必須の課題だ。
主な困難は、検出器が圧縮アーティファクトのような急激なパターンに依存する傾向にあり、その決定に影響を及ぼす。
これらの問題は、検出器が実際のデータ分布と関連付ける特定のパターンに由来することが多く、実際の生成トレースを分離することは困難である。
生成モデルによって導入されたアーティファクトを含む場合に限り、画像は偽物として分類されるべきである。
この前提に基づいて,実データに関連付けられているものを無視しながら,検出対象を生成アーティファクトに限定するアルゴリズムであるStay Positiveを提案する。
実験結果から,Stay Positiveでトレーニングした検出器は,スプリアス相関に対する感受性を低下させ,一般化とポストプロセッシングに対する堅牢性を向上させることが示された。
さらに、アーティファクトと実際のイメージを関連付ける検出器とは異なり、偽のアーティファクトに純粋にフォーカスする検出器は、塗られた実際のイメージを検出するのに優れている。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - On the Effectiveness of Dataset Alignment for Fake Image Detection [28.68129042301801]
優れた検出器は、セマンティックコンテンツ、解像度、ファイルフォーマットなどの画像特性を無視しながら、生成モデル指紋に焦点を当てるべきである。
この研究では、これらのアルゴリズムの選択に加えて、堅牢な検出器をトレーニングするためには、リアル/フェイク画像の整列したデータセットも必要である、と論じる。
そこで本研究では, LDMの家族に対して, LDMのオートエンコーダを用いて実画像の再構成を行う手法を提案する。
論文 参考訳(メタデータ) (2024-10-15T17:58:07Z) - Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - GenDet: Towards Good Generalizations for AI-Generated Image Detection [27.899521298845357]
既存の方法では、目に見えないジェネレータが生成した画像を効果的に検出できるが、見えないジェネレータが生成した画像を検出することは困難である。
本稿では、異常検出の観点から、この課題を考慮し、未知のジェネレータ検出問題に対処する。
提案手法は,実画像の教師モデルと学生モデルとの出力の差を小さくし,偽画像の差を大きくすることを目的としている。
論文 参考訳(メタデータ) (2023-12-12T11:20:45Z) - Imperceptible Adversarial Examples for Fake Image Detection [46.72602615209758]
本稿では,鍵画素を偽画像検出器に判定し,鍵画素のみを攻撃することにより,偽画像検出を妨害する手法を提案する。
3つの偽画像検出器を用いた2つの公開データセット実験により,提案手法は,ホワイトボックス攻撃とブラックボックス攻撃の両方において最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2021-06-03T06:25:04Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Identifying Invariant Texture Violation for Robust Deepfake Detection [17.306386179823576]
Invariant Texture Learning frameworkは,低画質で公開されたデータセットにのみアクセスすることができる。
本手法は, 被写体から転写したテクスチャによって, 被写体表面の微視的顔のテクスチャが必然的に侵害されることを前提とした。
論文 参考訳(メタデータ) (2020-12-19T03:02:15Z) - What makes fake images detectable? Understanding properties that
generalize [55.4211069143719]
深層ネットワークは、博士画像の微妙なアーティファクトを拾い上げることができる。
我々は、偽画像のどの特性が検出可能かを理解することを模索する。
検出可能な特性を誇張する手法を示す。
論文 参考訳(メタデータ) (2020-08-24T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。