論文の概要: A One-Class Classifier for the Detection of GAN Manipulated
Multi-Spectral Satellite Images
- arxiv url: http://arxiv.org/abs/2305.11795v1
- Date: Fri, 19 May 2023 16:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 13:30:10.423504
- Title: A One-Class Classifier for the Detection of GAN Manipulated
Multi-Spectral Satellite Images
- Title(参考訳): GAN操作多スペクトル衛星画像検出のための一級分類器
- Authors: Lydia Abady, Giovanna Maria Dimitri and Mauro Barni
- Abstract要約: 本稿では,Vector Quantized Variational Autoencoder 2 (VQ-VAE2) 機能に基づく一級分類器を提案する。
VQ-VAE 2 ベースの分類器は、プリスタン画像のみに基づいて訓練されているため、訓練中に使用されていないアーキテクチャにより、異なるドメインに属する画像を検出することができる。
- 参考スコア(独自算出の注目度): 20.376706336644823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The highly realistic image quality achieved by current image generative
models has many academic and industrial applications. To limit the use of such
models to benign applications, though, it is necessary that tools to
conclusively detect whether an image has been generated synthetically or not
are developed. For this reason, several detectors have been developed providing
excellent performance in computer vision applications, however, they can not be
applied as they are to multispectral satellite images, and hence new models
must be trained. In general, two-class classifiers can achieve very good
detection accuracies, however they are not able to generalise to image domains
and generative models architectures different than those used during training.
For this reason, in this paper, we propose a one-class classifier based on
Vector Quantized Variational Autoencoder 2 (VQ-VAE 2) features to overcome the
limitations of two-class classifiers. First, we emphasize the generalization
problem that binary classifiers suffer from by training and testing an
EfficientNet-B4 architecture on multiple multispectral datasets. Then we show
that, since the VQ-VAE 2 based classifier is trained only on pristine images,
it is able to detect images belonging to different domains and generated by
architectures that have not been used during training. Last, we compare the two
classifiers head-to-head on the same generated datasets, highlighting the
superiori generalization capabilities of the VQ-VAE 2-based detector.
- Abstract(参考訳): 現在の画像生成モデルによって達成される高度に現実的な画像品質は多くの学術的、工業的応用がある。
しかし、このようなモデルの使用を良質な用途に限定するには、画像が合成的に生成されたかどうかを決定的に検出するツールの開発が必要である。
このため、コンピュータビジョンの応用において優れた性能を発揮する検出器がいくつか開発されているが、マルチスペクトル衛星画像では適用できないため、新しいモデルを訓練する必要がある。
一般に、2つのクラス分類器は非常に良い検出精度を達成できるが、トレーニングで使用するものと異なる画像領域や生成モデルアーキテクチャに一般化することはできない。
そこで本稿では,ベクトル量子化変分オートエンコーダ2(vq-vae2)に基づく1クラス分類器を提案する。
まず,複数のマルチスペクトルデータセット上でのEfficientNet-B4アーキテクチャのトレーニングとテストにより,バイナリ分類器が抱える一般化問題を強調する。
そして、vq-vae 2 ベースの分類器は、プリスティーヌ画像のみに基づいてトレーニングされるので、異なるドメインに属する画像を検出し、トレーニング中に使われていないアーキテクチャによって生成される。
最後に、2つの分類器を同じ生成されたデータセットで比較し、VQ-VAE 2ベースの検出器の優位な一般化能力を強調した。
関連論文リスト
- Exploring Robust Features for Few-Shot Object Detection in Satellite
Imagery [17.156864650143678]
従来の2段階アーキテクチャに基づく数発の物体検出器を開発した。
大規模な事前訓練モデルを使用して、クラス参照の埋め込みやプロトタイプを構築する。
課題と稀なオブジェクトを含む2つのリモートセンシングデータセットの評価を行う。
論文 参考訳(メタデータ) (2024-03-08T15:20:27Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - GenImage: A Million-Scale Benchmark for Detecting AI-Generated Image [28.38575401686718]
我々は、100万組のAI生成フェイクイメージと実際の画像の収集を含むGenImageデータセットを紹介した。
この利点は、GenImageで訓練された検出器が徹底的な評価を行い、多様な画像に適用可能であることを示すことである。
本研究では,本データセットの包括的解析を行い,実世界のシナリオに類似した検出手法を評価するための2つの課題を提案する。
論文 参考訳(メタデータ) (2023-06-14T15:21:09Z) - Multi-Modal Classifiers for Open-Vocabulary Object Detection [104.77331131447541]
本論文の目的は,OVOD(Open-vocabulary Object Detection)である。
標準の2段階オブジェクト検出器アーキテクチャを採用する。
言語記述、画像例、これら2つの組み合わせの3つの方法を探究する。
論文 参考訳(メタデータ) (2023-06-08T18:31:56Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Benchmarking Robustness of Deep Learning Classifiers Using Two-Factor
Perturbation [4.016928101928335]
本稿では,欠陥画像上のDL分類器のロバスト性を評価するための基礎的な研究を付け加える。
クリーンなセット,単一因子摂動のセット,2要素摂動条件のセットを含む,総合的な69のベンチマーク画像セットを作成しました。
論文 参考訳(メタデータ) (2022-03-02T03:53:21Z) - A Method for Evaluating Deep Generative Models of Images via Assessing
the Reproduction of High-order Spatial Context [9.00018232117916]
GAN(Generative Adversarial Network)は、広く使われているDGMの一種である。
本稿では,2つのGANアーキテクチャによって出力される画像の客観的なテストについて述べる。
我々は、訓練されたGANによって生成した画像の特徴を再現できるいくつかのコンテキストモデル(SCM)を設計した。
論文 参考訳(メタデータ) (2021-11-24T15:58:10Z) - Collaging Class-specific GANs for Semantic Image Synthesis [68.87294033259417]
本稿では,高分解能なセマンティック画像合成のための新しい手法を提案する。
1つのベースイメージジェネレータと複数のクラス固有のジェネレータで構成される。
実験により,本手法は高解像度で高品質な画像を生成することができることが示された。
論文 参考訳(メタデータ) (2021-10-08T17:46:56Z) - Image Classification with Classic and Deep Learning Techniques [0.0]
従来のコンピュータビジョンとディープラーニング技術を用いて画像分類器を実装した。
それぞれのケースを精度と損失の観点から評価し,使用するモデルと構成によって0.6から0.09の範囲で結果を得た。
論文 参考訳(メタデータ) (2021-05-11T09:32:38Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。