論文の概要: AI-Generated Image Detection using a Cross-Attention Enhanced
Dual-Stream Network
- arxiv url: http://arxiv.org/abs/2306.07005v1
- Date: Mon, 12 Jun 2023 10:19:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:09:23.753182
- Title: AI-Generated Image Detection using a Cross-Attention Enhanced
Dual-Stream Network
- Title(参考訳): クロスアテンション強化デュアルストリームネットワークを用いたai画像検出
- Authors: Ziyi Xi, Wenmin Huang, Kangkang Wei, Weiqi Luo and Peijia Zheng
- Abstract要約: 本研究は,AIGCにおけるテキスト・画像生成プロセスに焦点をあてる。
我々は,残差ストリームとコンテンツストリームからなるロバストなデュアルストリームネットワークを開発する。
提案手法は,画像解像度の異なる従来のCG検出技術より一貫して優れる。
- 参考スコア(独自算出の注目度): 17.101366705333362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid evolution of AI Generated Content (AIGC), forged images
produced through this technology are inherently more deceptive and require less
human intervention compared to traditional Computer-generated Graphics (CG).
However, owing to the disparities between CG and AIGC, conventional CG
detection methods tend to be inadequate in identifying AIGC-produced images. To
address this issue, our research concentrates on the text-to-image generation
process in AIGC. Initially, we first assemble two text-to-image databases
utilizing two distinct AI systems, DALLE2 and DreamStudio. Aiming to
holistically capture the inherent anomalies produced by AIGC, we develope a
robust dual-stream network comprised of a residual stream and a content stream.
The former employs the Spatial Rich Model (SRM) to meticulously extract various
texture information from images, while the latter seeks to capture additional
forged traces in low frequency, thereby extracting complementary information
that the residual stream may overlook. To enhance the information exchange
between these two streams, we incorporate a cross multi-head attention
mechanism. Numerous comparative experiments are performed on both databases,
and the results show that our detection method consistently outperforms
traditional CG detection techniques across a range of image resolutions.
Moreover, our method exhibits superior performance through a series of
robustness tests and cross-database experiments. When applied to widely
recognized traditional CG benchmarks such as SPL2018 and DsTok, our approach
significantly exceeds the capabilities of other existing methods in the field
of CG detection.
- Abstract(参考訳): AIGC(AI Generated Content)の急速な進化により、この技術によって生成された偽造画像は本質的には騙されやすく、従来のコンピュータ生成グラフィクス(CG)に比べて人間の介入が少なくなる。
しかし、CGとAIGCの相違により、従来のCG検出法はAIGC生成画像の同定に不十分な傾向にある。
本研究は,AIGCにおけるテキスト・画像生成プロセスに焦点をあてる。
まず、DALLE2とDreamStudioという2つの異なるAIシステムを利用した2つのテキスト画像データベースを最初に組み立てる。
aigcが生み出す固有の異常を確率的に捉えることを目的として,残留ストリームとコンテンツストリームからなる頑健なデュアルストリームネットワークを開発した。
前者は空間リッチモデル(SRM)を用いて画像から様々なテクスチャ情報を巧みに抽出し、後者は低周波で追加の鍛造された痕跡を捕捉し、残留ストリームが見落としてしまうような補完的な情報を抽出する。
これら2つのストリーム間の情報交換を強化するために,クロスマルチヘッドアテンション機構を導入する。
両データベースに比較実験を多数実施し,提案手法は画像解像度の範囲で従来型のCG検出技術より一貫して優れていることを示す。
さらに,本手法はロバスト性テストとデータベース間実験により,優れた性能を示す。
SPL2018やDsTokといった従来のCGベンチマークに適用した場合,本手法はCG検出分野における既存手法の能力をはるかに上回っている。
関連論文リスト
- Improving Interpretability and Robustness for the Detection of AI-Generated Images [6.116075037154215]
凍結したCLIP埋め込みに基づいて、既存の最先端AIGI検出手法を解析する。
さまざまなAIジェネレータが生成する画像が実際の画像とどのように異なるかを示す。
論文 参考訳(メタデータ) (2024-06-21T10:33:09Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Dual-Image Enhanced CLIP for Zero-Shot Anomaly Detection [58.228940066769596]
本稿では,統合視覚言語スコアリングシステムを活用したデュアルイメージ強化CLIP手法を提案する。
提案手法は,画像のペアを処理し,それぞれを視覚的参照として利用することにより,視覚的コンテキストによる推論プロセスを強化する。
提案手法は視覚言語による関節異常検出の可能性を大幅に活用し,従来のSOTA法と同等の性能を示す。
論文 参考訳(メタデータ) (2024-05-08T03:13:20Z) - Robust CLIP-Based Detector for Exposing Diffusion Model-Generated Images [13.089550724738436]
拡散モデル(DM)は画像生成に革命をもたらし、様々な分野にまたがる高品質な画像を生成する。
超現実的画像を作成する能力は、現実的コンテンツと合成的コンテンツを区別する上で大きな課題となる。
この研究は、CLIPモデルによって抽出された画像とテキストの特徴をMLP(Multilayer Perceptron)分類器と統合する堅牢な検出フレームワークを導入する。
論文 参考訳(メタデータ) (2024-04-19T14:30:41Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross Appearance-Edge Learning [50.7702397913573]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Data Augmentation via Mixed Class Interpolation using Cycle-Consistent
Generative Adversarial Networks Applied to Cross-Domain Imagery [16.870604081967866]
機械学習による物体検出と非可視画像内の分類は多くの分野において重要な役割を担っている。
しかし、このような応用は、限られた量の非可視領域画像のためにしばしば苦しむ。
本稿では,可視光帯域画像を利用した新しいデータ拡張手法の提案と評価を行う。
論文 参考訳(メタデータ) (2020-05-05T18:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。