論文の概要: ArtiFact: A Large-Scale Dataset with Artificial and Factual Images for
Generalizable and Robust Synthetic Image Detection
- arxiv url: http://arxiv.org/abs/2302.11970v2
- Date: Fri, 24 Feb 2023 13:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:46:26.776129
- Title: ArtiFact: A Large-Scale Dataset with Artificial and Factual Images for
Generalizable and Robust Synthetic Image Detection
- Title(参考訳): ArtiFact: 汎用・ロバスト合成画像検出のための人工・実画像付き大規模データセット
- Authors: Md Awsafur Rahman, Bishmoy Paul, Najibul Haque Sarker, Zaber Ibn Abdul
Hakim, Shaikh Anowarul Fattah
- Abstract要約: 本稿では,実世界の障害に直面した合成画像検出器の汎用性とロバスト性を評価する。
フィルタストライド削減戦略と組み合わせたマルチクラス分類方式は,社会的プラットフォーム障害に対処する。
ICIP 2022のIEEE VIPカップチャレンジでは、テスト1で8.34%、テスト2で1.26%、テスト3で15.08%と、他のトップチームよりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 0.3779860024918729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic image generation has opened up new opportunities but has also
created threats in regard to privacy, authenticity, and security. Detecting
fake images is of paramount importance to prevent illegal activities, and
previous research has shown that generative models leave unique patterns in
their synthetic images that can be exploited to detect them. However, the
fundamental problem of generalization remains, as even state-of-the-art
detectors encounter difficulty when facing generators never seen during
training. To assess the generalizability and robustness of synthetic image
detectors in the face of real-world impairments, this paper presents a
large-scale dataset named ArtiFact, comprising diverse generators, object
categories, and real-world challenges. Moreover, the proposed multi-class
classification scheme, combined with a filter stride reduction strategy
addresses social platform impairments and effectively detects synthetic images
from both seen and unseen generators. The proposed solution significantly
outperforms other top teams by 8.34% on Test 1, 1.26% on Test 2, and 15.08% on
Test 3 in the IEEE VIP Cup challenge at ICIP 2022, as measured by the accuracy
metric.
- Abstract(参考訳): 合成画像生成は新しい機会を開いたが、プライバシー、信頼性、セキュリティに関する脅威も生み出した。
偽画像の検出は違法な活動を防ぐために最重要であり、以前の研究では、生成モデルはそれらを検出するために利用される合成画像にユニークなパターンを残すことが示されている。
しかし、一般化の根本的な問題は依然として残っており、最先端の検出器でさえ、訓練中に決して見えない発電機に直面すると困難に直面する。
実世界の障害に直面した合成画像検出器の一般化性とロバスト性を評価するため,多種多様なジェネレータ,オブジェクトカテゴリ,実世界の課題からなる大規模データセットArtiFactを提案する。
さらに,マルチクラス分類手法とフィルタストライド低減戦略を組み合わせることで,社会的プラットフォーム障害に対処し,目に見えない生成物から合成画像を検出する。
提案手法は、icp 2022のieee vipカップチャレンジにおいて、テスト1、テスト2では1.26%、テスト3では15.08%と、他のトップチームの8.34%を大きく上回っている。
関連論文リスト
- Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Improving Synthetic Image Detection Towards Generalization: An Image Transformation Perspective [45.210030086193775]
現在の合成画像検出(SID)パイプラインは、主に普遍的なアーティファクト機能を構築することを目的としている。
3つの簡単な画像変換を持つ軽量かつ効率的な検出器SAFEを提案する。
我々のパイプラインは、新しい最先端のパフォーマンスを実現し、既存の手法に対する平均精度は4.5%、平均精度は2.9%向上した。
論文 参考訳(メタデータ) (2024-08-13T09:01:12Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - BiHPF: Bilateral High-Pass Filters for Robust Deepfake Detection [14.350298935747668]
生成モデルの合成画像に見られる周波数レベルのアーティファクトの効果を増幅するバイラテラルハイパスフィルタ(BiHPF)を提案する。
本手法は、未確認領域でテストしても、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-16T07:56:45Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。