論文の概要: DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images
- arxiv url: http://arxiv.org/abs/2404.15697v1
- Date: Wed, 24 Apr 2024 07:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:59:40.926624
- Title: DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images
- Title(参考訳): DeepFeatureX Net:Deep Features eXtractors based Network for discrimination synthesis from real image
- Authors: Orazio Pontorno, Luca Guarnera, Sebastiano Battiato,
- Abstract要約: ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
- 参考スコア(独自算出の注目度): 6.75641797020186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deepfakes, synthetic images generated by deep learning algorithms, represent one of the biggest challenges in the field of Digital Forensics. The scientific community is working to develop approaches that can discriminate the origin of digital images (real or AI-generated). However, these methodologies face the challenge of generalization, that is, the ability to discern the nature of an image even if it is generated by an architecture not seen during training. This usually leads to a drop in performance. In this context, we propose a novel approach based on three blocks called Base Models, each of which is responsible for extracting the discriminative features of a specific image class (Diffusion Model-generated, GAN-generated, or real) as it is trained by exploiting deliberately unbalanced datasets. The features extracted from each block are then concatenated and processed to discriminate the origin of the input image. Experimental results showed that this approach not only demonstrates good robust capabilities to JPEG compression but also outperforms state-of-the-art methods in several generalization tests. Code, models and dataset are available at https://github.com/opontorno/block-based_deepfake-detection.
- Abstract(参考訳): ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
科学コミュニティは、デジタル画像(リアルまたはAI生成)の起源を識別できるアプローチの開発に取り組んでいる。
しかし、これらの手法は、訓練中に見えないアーキテクチャによって生成されたとしても、画像の性質を識別する能力という一般化の課題に直面している。
これは通常パフォーマンスの低下につながる。
この文脈では,ベースモデルと呼ばれる3つのブロックをベースとした新しいアプローチを提案し,各ブロックは,意図的不均衡なデータセットを活用することによって,特定の画像クラスの識別的特徴(拡散モデル生成,GAN生成,あるいは実)を抽出する。
そして、各ブロックから抽出された特徴を連結処理し、入力画像の原点を識別する。
実験結果から,この手法はJPEG圧縮に優れたロバスト性を示すだけでなく,いくつかの一般化テストにおいて最先端の手法よりも優れていることが示された。
コード、モデル、データセットはhttps://github.com/opontorno/block-based_deepfake-detectionで確認できる。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Detection of Synthetic Face Images: Accuracy, Robustness, Generalization [1.757194730633422]
合成画像と実画像の分離において,特定の画像生成装置で訓練した簡単なモデルでほぼ完璧な精度が得られることがわかった。
このモデルは敵の攻撃に弱いことが判明し、目に見えない発電機には一般化されなかった。
論文 参考訳(メタデータ) (2024-06-25T13:34:50Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution [22.81354665006496]
合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-19T09:17:43Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Deepfake Network Architecture Attribution [23.375381198124014]
既存のフェイク画像属性の研究は、GAN(Generative Adversarial Network)モデルでマルチクラス分類を行っている。
textitDeepfake Network Architecture Attribution に関する最初の研究を行い,アーキテクチャレベルでの偽画像の属性について述べる。
論文 参考訳(メタデータ) (2022-02-28T14:54:30Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。