論文の概要: Deepfake Geography: Detecting AI-Generated Satellite Images
- arxiv url: http://arxiv.org/abs/2511.17766v1
- Date: Fri, 21 Nov 2025 20:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.412165
- Title: Deepfake Geography: Detecting AI-Generated Satellite Images
- Title(参考訳): Deepfake Geography:AI生成衛星画像の検出
- Authors: Mansur Yerzhanuly,
- Abstract要約: StyleGAN2やStable Diffusionのような生成モデルは衛星画像の信頼性を脅かす。
我々は、AI生成衛星画像を検出するために、コナールニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)を比較した。
ViTはCNNの精度(95.11パーセント対87.02パーセント)と全体的な堅牢性の両方で著しく上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid advancement of generative models such as StyleGAN2 and Stable Diffusion poses a growing threat to the authenticity of satellite imagery, which is increasingly vital for reliable analysis and decision-making across scientific and security domains. While deepfake detection has been extensively studied in facial contexts, satellite imagery presents distinct challenges, including terrain-level inconsistencies and structural artifacts. In this study, we conduct a comprehensive comparison between Convolutional Neural Networks (CNNs) and Vision Transformers (ViTs) for detecting AI-generated satellite images. Using a curated dataset of over 130,000 labeled RGB images from the DM-AER and FSI datasets, we show that ViTs significantly outperform CNNs in both accuracy (95.11 percent vs. 87.02 percent) and overall robustness, owing to their ability to model long-range dependencies and global semantic structures. We further enhance model transparency using architecture-specific interpretability methods, including Grad-CAM for CNNs and Chefer's attention attribution for ViTs, revealing distinct detection behaviors and validating model trustworthiness. Our results highlight the ViT's superior performance in detecting structural inconsistencies and repetitive textural patterns characteristic of synthetic imagery. Future work will extend this research to multispectral and SAR modalities and integrate frequency-domain analysis to further strengthen detection capabilities and safeguard satellite imagery integrity in high-stakes applications.
- Abstract(参考訳): StyleGAN2やStable Diffusionのような生成モデルの急速な進歩は、衛星画像の信頼性への脅威を増している。
ディープフェイク検出は顔の文脈で広く研究されているが、衛星画像は地形レベルの不整合や構造的アーティファクトなど、異なる課題を呈している。
本研究では、AI生成衛星画像を検出するために、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)の総合的な比較を行う。
DM-AERおよびFSIデータセットからの13万以上のラベル付きRGBイメージのキュレートデータセットを使用して、ViTsは、長距離依存関係とグローバルセマンティック構造をモデル化する能力により、CNNの精度(95.11パーセント対87.02パーセント)と全体的な堅牢性の両方において、著しく向上していることを示す。
また,CNNに対するGrad-CAMや,ViTに対するCheferの注目度など,アーキテクチャ固有の解釈可能性手法によるモデルの透明性の向上も行なっている。
以上の結果から, 合成画像に特徴的な構造的不整合と反復的テクスチャパターンの検出におけるViTの優れた性能が明らかとなった。
今後の研究は、この研究をマルチスペクトルおよびSARモダリティに拡張し、周波数領域分析を統合して、検出能力をさらに強化し、高感度アプリケーションにおける衛星画像の整合性を保護する。
関連論文リスト
- Bridging the Gap Between Ideal and Real-world Evaluation: Benchmarking AI-Generated Image Detection in Challenging Scenarios [54.07895223545793]
本稿では,実世界ロバストネスデータセット(RRDataset)を導入し,3次元にわたる検出モデルの包括的評価を行う。
RRDatasetには7つの主要なシナリオの高品質なイメージが含まれている。
我々はRRDataset上で17の検出器と10の視覚言語モデル(VLM)をベンチマークし、大規模な人間実験を行った。
論文 参考訳(メタデータ) (2025-09-11T06:15:52Z) - So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation [49.13393683126712]
都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
複雑な地形と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
低解像度空中画像の品質を高めるため,GANと拡散モデルとドメイン適応を統合した新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-21T03:57:10Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Addressing Vulnerabilities in AI-Image Detection: Challenges and Proposed Solutions [0.0]
本研究では,AI生成画像の検出における畳み込みニューラルネットワーク(CNN)とDenseNetアーキテクチャの有効性を評価する。
本稿では,ガウスのぼかしやテキスト変更,ローランド適応(LoRA)などの更新や修正が検出精度に与える影響を解析する。
この発見は、現在の検出方法の脆弱性を強調し、AI画像検出システムの堅牢性と信頼性を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-26T06:35:26Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - FlightScope: An Experimental Comparative Review of Aircraft Detection Algorithms in Satellite Imagery [2.9687381456164004]
本稿では,衛星画像中の航空機を識別するタスク用にカスタマイズされた,高度な物体検出アルゴリズム群を批判的に評価し,比較する。
この研究は、YOLOバージョン5と8、より高速なRCNN、CenterNet、RetinaNet、RTMDet、DETRを含む一連の方法論を含む。
YOLOv5は空中物体検出のための堅牢なソリューションとして登場し、平均的精度、リコール、ユニオンのスコアに対するインターセクションによってその重要性を裏付けている。
論文 参考訳(メタデータ) (2024-04-03T17:24:27Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Unsupervised Discovery of Semantic Concepts in Satellite Imagery with
Style-based Wavelet-driven Generative Models [27.62417543307831]
本稿では,衛星画像の広帯域合成が可能な,最初の事前学習型およびウェーブレット型GANモデルを提案する。
ネットワークの中間的アクティベーションを解析することにより、解釈可能なセマンティックな方向を多数発見できることが示される。
論文 参考訳(メタデータ) (2022-08-03T14:19:24Z) - A Comprehensive Study of Vision Transformers on Dense Prediction Tasks [10.013443811899466]
畳み込みニューラルネットワーク(CNN)がビジョンタスクの標準選択である。
近年の研究では、オブジェクト検出やセマンティックセグメンテーションといった課題において、視覚変換器(VT)が同等の性能を発揮することが示されている。
このことは、それらの一般化可能性、堅牢性、信頼性、複雑なタスクの特徴を抽出するときにテクスチャバイアスについていくつかの疑問を投げかける。
論文 参考訳(メタデータ) (2022-01-21T13:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。