論文の概要: Deepfake Geography: Detecting AI-Generated Satellite Images
- arxiv url: http://arxiv.org/abs/2511.17766v1
- Date: Fri, 21 Nov 2025 20:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.412165
- Title: Deepfake Geography: Detecting AI-Generated Satellite Images
- Title(参考訳): Deepfake Geography:AI生成衛星画像の検出
- Authors: Mansur Yerzhanuly,
- Abstract要約: StyleGAN2やStable Diffusionのような生成モデルは衛星画像の信頼性を脅かす。
我々は、AI生成衛星画像を検出するために、コナールニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)を比較した。
ViTはCNNの精度(95.11パーセント対87.02パーセント)と全体的な堅牢性の両方で著しく上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative models such as StyleGAN2 and Stable Diffusion poses a growing threat to the authenticity of satellite imagery, which is increasingly vital for reliable analysis and decision-making across scientific and security domains. While deepfake detection has been extensively studied in facial contexts, satellite imagery presents distinct challenges, including terrain-level inconsistencies and structural artifacts. In this study, we conduct a comprehensive comparison between Convolutional Neural Networks (CNNs) and Vision Transformers (ViTs) for detecting AI-generated satellite images. Using a curated dataset of over 130,000 labeled RGB images from the DM-AER and FSI datasets, we show that ViTs significantly outperform CNNs in both accuracy (95.11 percent vs. 87.02 percent) and overall robustness, owing to their ability to model long-range dependencies and global semantic structures. We further enhance model transparency using architecture-specific interpretability methods, including Grad-CAM for CNNs and Chefer's attention attribution for ViTs, revealing distinct detection behaviors and validating model trustworthiness. Our results highlight the ViT's superior performance in detecting structural inconsistencies and repetitive textural patterns characteristic of synthetic imagery. Future work will extend this research to multispectral and SAR modalities and integrate frequency-domain analysis to further strengthen detection capabilities and safeguard satellite imagery integrity in high-stakes applications.
- Abstract(参考訳): StyleGAN2やStable Diffusionのような生成モデルの急速な進歩は、衛星画像の信頼性への脅威を増している。
ディープフェイク検出は顔の文脈で広く研究されているが、衛星画像は地形レベルの不整合や構造的アーティファクトなど、異なる課題を呈している。
本研究では、AI生成衛星画像を検出するために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)の総合的な比較を行う。
DM-AERおよびFSIデータセットからの13万以上のラベル付きRGBイメージのキュレートデータセットを使用して、ViTsは、長距離依存関係とグローバルセマンティック構造をモデル化する能力により、CNNの精度(95.11パーセント対87.02パーセント)と全体的な堅牢性の両方において、著しく向上していることを示す。
また,CNNに対するGrad-CAMや,ViTに対するCheferの注目度など,アーキテクチャ固有の解釈可能性手法によるモデルの透明性の向上も行なっている。
以上の結果から, 合成画像に特徴的な構造的不整合と反復的テクスチャパターンの検出におけるViTの優れた性能が明らかとなった。
今後の研究は、この研究をマルチスペクトルおよびSARモダリティに拡張し、周波数領域分析を統合して、検出能力をさらに強化し、高感度アプリケーションにおける衛星画像の整合性を保護する。
関連論文リスト
- Bridging the Gap Between Ideal and Real-world Evaluation: Benchmarking AI-Generated Image Detection in Challenging Scenarios [54.07895223545793]
本稿では,実世界ロバストネスデータセット(RRDataset)を導入し,3次元にわたる検出モデルの包括的評価を行う。
RRDatasetには7つの主要なシナリオの高品質なイメージが含まれている。
我々はRRDataset上で17の検出器と10の視覚言語モデル(VLM)をベンチマークし、大規模な人間実験を行った。
論文 参考訳(メタデータ) (2025-09-11T06:15:52Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - FlightScope: An Experimental Comparative Review of Aircraft Detection Algorithms in Satellite Imagery [2.9687381456164004]
本稿では,衛星画像中の航空機を識別するタスク用にカスタマイズされた,高度な物体検出アルゴリズム群を批判的に評価し,比較する。
この研究は、YOLOバージョン5と8、より高速なRCNN、CenterNet、RetinaNet、RTMDet、DETRを含む一連の方法論を含む。
YOLOv5は空中物体検出のための堅牢なソリューションとして登場し、平均的精度、リコール、ユニオンのスコアに対するインターセクションによってその重要性を裏付けている。
論文 参考訳(メタデータ) (2024-04-03T17:24:27Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Unsupervised Discovery of Semantic Concepts in Satellite Imagery with
Style-based Wavelet-driven Generative Models [27.62417543307831]
本稿では,衛星画像の広帯域合成が可能な,最初の事前学習型およびウェーブレット型GANモデルを提案する。
ネットワークの中間的アクティベーションを解析することにより、解釈可能なセマンティックな方向を多数発見できることが示される。
論文 参考訳(メタデータ) (2022-08-03T14:19:24Z) - A Comprehensive Study of Vision Transformers on Dense Prediction Tasks [10.013443811899466]
畳み込みニューラルネットワーク(CNN)がビジョンタスクの標準選択である。
近年の研究では、オブジェクト検出やセマンティックセグメンテーションといった課題において、視覚変換器(VT)が同等の性能を発揮することが示されている。
このことは、それらの一般化可能性、堅牢性、信頼性、複雑なタスクの特徴を抽出するときにテクスチャバイアスについていくつかの疑問を投げかける。
論文 参考訳(メタデータ) (2022-01-21T13:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。