論文の概要: Detecting GAN-generated Images by Orthogonal Training of Multiple CNNs
- arxiv url: http://arxiv.org/abs/2203.02246v1
- Date: Fri, 4 Mar 2022 11:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:20:36.196294
- Title: Detecting GAN-generated Images by Orthogonal Training of Multiple CNNs
- Title(参考訳): 複数のCNNの直交訓練によるGAN生成画像の検出
- Authors: Sara Mandelli, Nicol\`o Bonettini, Paolo Bestagini, Stefano Tubaro
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)のアンサンブルに基づく合成画像の検出手法を提案する。
実験の結果、これらの2つのアイデアを追求することで、NVIDIAが新たに生成したStyleGAN3イメージの検出精度が向上し、トレーニングには使用されないことが示された。
- 参考スコア(独自算出の注目度): 18.3198215837364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, we have witnessed the rise of a series of deep
learning methods to generate synthetic images that look extremely realistic.
These techniques prove useful in the movie industry and for artistic purposes.
However, they also prove dangerous if used to spread fake news or to generate
fake online accounts. For this reason, detecting if an image is an actual
photograph or has been synthetically generated is becoming an urgent necessity.
This paper proposes a detector of synthetic images based on an ensemble of
Convolutional Neural Networks (CNNs). We consider the problem of detecting
images generated with techniques not available at training time. This is a
common scenario, given that new image generators are published more and more
frequently. To solve this issue, we leverage two main ideas: (i) CNNs should
provide orthogonal results to better contribute to the ensemble; (ii) original
images are better defined than synthetic ones, thus they should be better
trusted at testing time. Experiments show that pursuing these two ideas
improves the detector accuracy on NVIDIA's newly generated StyleGAN3 images,
never used in training.
- Abstract(参考訳): ここ数年、我々は非常にリアルに見える合成画像を生成するための一連の深層学習手法の台頭を目撃してきた。
これらの技術は映画産業や芸術的目的に有用である。
しかし、偽ニュースを広めたり、偽のオンラインアカウントを作成したりする際にも危険である。
このため、画像が実際の写真であるか、あるいは合成的に生成されたかを検出することが、必要不可欠なものとなっている。
本稿では,畳み込みニューラルネットワーク(CNN)のアンサンブルに基づく合成画像の検出手法を提案する。
訓練時間には使用できない手法で生成した画像を検出する問題を考える。
新しいイメージジェネレータが頻繁に発行されることを考えると、これは一般的なシナリオである。
この問題を解決するために、私たちは2つの主要なアイデアを活用します。
i)CNNは、アンサンブルにより良い貢献をするために直交結果を提供するべきである。
(ii)原画像は合成画像よりもよく定義されているため、テスト時には信頼性が高い。
実験の結果、これらの2つのアイデアを追求することで、NVIDIAが新たに生成したStyleGAN3イメージの検出精度が向上することが示された。
関連論文リスト
- Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Solutions to Deepfakes: Can Camera Hardware, Cryptography, and Deep Learning Verify Real Images? [51.3344199560726]
信頼性の高い合成データから実際のデータを分離する手法を確立することが不可欠である。
この文書は、どの画像が本物かを検証するために使用できる検出と暗号に関する既知の戦略を提示することを目的としている。
論文 参考訳(メタデータ) (2024-07-04T22:01:21Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Open Set Synthetic Image Source Attribution [9.179652505898332]
本稿では,合成画像の識別のためのメトリクス学習に基づく新しいアプローチを提案する。
本手法は, 発電機間での識別が可能な移動可能な埋め込みを学習することにより機能する。
オープンなシナリオで合成画像のソースを属性付けるアプローチの能力を実証する。
論文 参考訳(メタデータ) (2023-08-22T16:37:51Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Evaluation of Pre-Trained CNN Models for Geographic Fake Image Detection [20.41074415307636]
我々は偽の衛星画像の出現を目撃しており、それは誤解を招く可能性があるし、国家の安全を脅かすかもしれない。
衛星画像検出のためのいくつかの畳み込みニューラルネットワーク(CNN)アーキテクチャの適合性について検討する。
この研究により、新たなベースラインの確立が可能となり、偽衛星画像検出のためのCNNベースの手法の開発に有用かもしれない。
論文 参考訳(メタデータ) (2022-10-01T20:37:24Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors [24.809185168969066]
我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
論文 参考訳(メタデータ) (2021-04-25T05:56:57Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。