論文の概要: Detecting GAN-generated Images by Orthogonal Training of Multiple CNNs
- arxiv url: http://arxiv.org/abs/2203.02246v1
- Date: Fri, 4 Mar 2022 11:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 14:20:36.196294
- Title: Detecting GAN-generated Images by Orthogonal Training of Multiple CNNs
- Title(参考訳): 複数のCNNの直交訓練によるGAN生成画像の検出
- Authors: Sara Mandelli, Nicol\`o Bonettini, Paolo Bestagini, Stefano Tubaro
- Abstract要約: 本稿では,畳み込みニューラルネットワーク(CNN)のアンサンブルに基づく合成画像の検出手法を提案する。
実験の結果、これらの2つのアイデアを追求することで、NVIDIAが新たに生成したStyleGAN3イメージの検出精度が向上し、トレーニングには使用されないことが示された。
- 参考スコア(独自算出の注目度): 18.3198215837364
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, we have witnessed the rise of a series of deep
learning methods to generate synthetic images that look extremely realistic.
These techniques prove useful in the movie industry and for artistic purposes.
However, they also prove dangerous if used to spread fake news or to generate
fake online accounts. For this reason, detecting if an image is an actual
photograph or has been synthetically generated is becoming an urgent necessity.
This paper proposes a detector of synthetic images based on an ensemble of
Convolutional Neural Networks (CNNs). We consider the problem of detecting
images generated with techniques not available at training time. This is a
common scenario, given that new image generators are published more and more
frequently. To solve this issue, we leverage two main ideas: (i) CNNs should
provide orthogonal results to better contribute to the ensemble; (ii) original
images are better defined than synthetic ones, thus they should be better
trusted at testing time. Experiments show that pursuing these two ideas
improves the detector accuracy on NVIDIA's newly generated StyleGAN3 images,
never used in training.
- Abstract(参考訳): ここ数年、我々は非常にリアルに見える合成画像を生成するための一連の深層学習手法の台頭を目撃してきた。
これらの技術は映画産業や芸術的目的に有用である。
しかし、偽ニュースを広めたり、偽のオンラインアカウントを作成したりする際にも危険である。
このため、画像が実際の写真であるか、あるいは合成的に生成されたかを検出することが、必要不可欠なものとなっている。
本稿では,畳み込みニューラルネットワーク(CNN)のアンサンブルに基づく合成画像の検出手法を提案する。
訓練時間には使用できない手法で生成した画像を検出する問題を考える。
新しいイメージジェネレータが頻繁に発行されることを考えると、これは一般的なシナリオである。
この問題を解決するために、私たちは2つの主要なアイデアを活用します。
i)CNNは、アンサンブルにより良い貢献をするために直交結果を提供するべきである。
(ii)原画像は合成画像よりもよく定義されているため、テスト時には信頼性が高い。
実験の結果、これらの2つのアイデアを追求することで、NVIDIAが新たに生成したStyleGAN3イメージの検出精度が向上することが示された。
関連論文リスト
- Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Open Set Synthetic Image Source Attribution [9.179652505898332]
本稿では,合成画像の識別のためのメトリクス学習に基づく新しいアプローチを提案する。
本手法は, 発電機間での識別が可能な移動可能な埋め込みを学習することにより機能する。
オープンなシナリオで合成画像のソースを属性付けるアプローチの能力を実証する。
論文 参考訳(メタデータ) (2023-08-22T16:37:51Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural
Images [59.71861772648853]
我々は,最先端拡散モデルにより生成された偽画像の正当性に関する体系的研究を開拓した。
我々の分析は、偽画像は共通の低レベルな手がかりを共有しており、容易に認識できることを示している。
本設定では,偽検出手法の性能を定量的に評価し,コントラッシブ・ベース・ディエンタング・ストラテジーを導入する。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Evaluation of Pre-Trained CNN Models for Geographic Fake Image Detection [20.41074415307636]
我々は偽の衛星画像の出現を目撃しており、それは誤解を招く可能性があるし、国家の安全を脅かすかもしれない。
衛星画像検出のためのいくつかの畳み込みニューラルネットワーク(CNN)アーキテクチャの適合性について検討する。
この研究により、新たなベースラインの確立が可能となり、偽衛星画像検出のためのCNNベースの手法の開発に有用かもしれない。
論文 参考訳(メタデータ) (2022-10-01T20:37:24Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Making GAN-Generated Images Difficult To Spot: A New Attack Against
Synthetic Image Detectors [24.809185168969066]
我々は,gan生成画像検出器を騙すことができる新たなアンチフォレンス攻撃を提案する。
我々の攻撃は 敵対的に訓練された 発生装置を使って 検出者が実際の画像と 関連づけた痕跡を 合成する
我々の攻撃は、7つの異なるGANを用いて合成画像で8つの最先端検出CNNを騙すことができることを示す。
論文 参考訳(メタデータ) (2021-04-25T05:56:57Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。