論文の概要: ArtiFact: A Large-Scale Dataset with Artificial and Factual Images for
Generalizable and Robust Synthetic Image Detection
- arxiv url: http://arxiv.org/abs/2302.11970v2
- Date: Fri, 24 Feb 2023 13:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:46:26.776129
- Title: ArtiFact: A Large-Scale Dataset with Artificial and Factual Images for
Generalizable and Robust Synthetic Image Detection
- Title(参考訳): ArtiFact: 汎用・ロバスト合成画像検出のための人工・実画像付き大規模データセット
- Authors: Md Awsafur Rahman, Bishmoy Paul, Najibul Haque Sarker, Zaber Ibn Abdul
Hakim, Shaikh Anowarul Fattah
- Abstract要約: 本稿では,実世界の障害に直面した合成画像検出器の汎用性とロバスト性を評価する。
フィルタストライド削減戦略と組み合わせたマルチクラス分類方式は,社会的プラットフォーム障害に対処する。
ICIP 2022のIEEE VIPカップチャレンジでは、テスト1で8.34%、テスト2で1.26%、テスト3で15.08%と、他のトップチームよりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 0.3779860024918729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic image generation has opened up new opportunities but has also
created threats in regard to privacy, authenticity, and security. Detecting
fake images is of paramount importance to prevent illegal activities, and
previous research has shown that generative models leave unique patterns in
their synthetic images that can be exploited to detect them. However, the
fundamental problem of generalization remains, as even state-of-the-art
detectors encounter difficulty when facing generators never seen during
training. To assess the generalizability and robustness of synthetic image
detectors in the face of real-world impairments, this paper presents a
large-scale dataset named ArtiFact, comprising diverse generators, object
categories, and real-world challenges. Moreover, the proposed multi-class
classification scheme, combined with a filter stride reduction strategy
addresses social platform impairments and effectively detects synthetic images
from both seen and unseen generators. The proposed solution significantly
outperforms other top teams by 8.34% on Test 1, 1.26% on Test 2, and 15.08% on
Test 3 in the IEEE VIP Cup challenge at ICIP 2022, as measured by the accuracy
metric.
- Abstract(参考訳): 合成画像生成は新しい機会を開いたが、プライバシー、信頼性、セキュリティに関する脅威も生み出した。
偽画像の検出は違法な活動を防ぐために最重要であり、以前の研究では、生成モデルはそれらを検出するために利用される合成画像にユニークなパターンを残すことが示されている。
しかし、一般化の根本的な問題は依然として残っており、最先端の検出器でさえ、訓練中に決して見えない発電機に直面すると困難に直面する。
実世界の障害に直面した合成画像検出器の一般化性とロバスト性を評価するため,多種多様なジェネレータ,オブジェクトカテゴリ,実世界の課題からなる大規模データセットArtiFactを提案する。
さらに,マルチクラス分類手法とフィルタストライド低減戦略を組み合わせることで,社会的プラットフォーム障害に対処し,目に見えない生成物から合成画像を検出する。
提案手法は、icp 2022のieee vipカップチャレンジにおいて、テスト1、テスト2では1.26%、テスト3では15.08%と、他のトップチームの8.34%を大きく上回っている。
関連論文リスト
- GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross
Appearance-Edge Learning [49.93362169016503]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Attention Consistency Refined Masked Frequency Forgery Representation
for Generalizing Face Forgery Detection [96.539862328788]
既存の偽造検出方法は、未確認領域の真正性を決定する不満足な一般化能力に悩まされている。
ACMF(Attention Consistency Refined masked frequency forgery representation model)を提案する。
いくつかのパブリックフェイスフォージェリーデータセットの実験結果から,提案手法の性能は最先端の手法と比較して優れていることが示された。
論文 参考訳(メタデータ) (2023-07-21T08:58:49Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - Surveillance Face Anti-spoofing [81.50018853811895]
Face Anti-Spoofing (FAS) は、様々な物理的攻撃から顔認識システムを保護するために不可欠である。
本稿では,画像品質による性能劣化を軽減するために,コントラスト品質不変学習(CQIL)ネットワークを提案する。
多くの実験がSuHiFiMaskデータセットの品質と提案したCQILの優位性を検証する。
論文 参考訳(メタデータ) (2023-01-03T07:09:57Z) - BiHPF: Bilateral High-Pass Filters for Robust Deepfake Detection [14.350298935747668]
生成モデルの合成画像に見られる周波数レベルのアーティファクトの効果を増幅するバイラテラルハイパスフィルタ(BiHPF)を提案する。
本手法は、未確認領域でテストしても、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-16T07:56:45Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Fighting deepfakes by detecting GAN DCT anomalies [0.0]
最先端アルゴリズムはディープニューラルネットワークを使って偽のコンテンツを検出する。
ディープフェイク画像の高精度判別が可能な新しい高速検出法を提案する。
この手法は革新的であり、最先端技術を超え、説明可能性の観点から多くの洞察を与えている。
論文 参考訳(メタデータ) (2021-01-24T19:45:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。