論文の概要: No Pixel Left Behind: A Detail-Preserving Architecture for Robust High-Resolution AI-Generated Image Detection
- arxiv url: http://arxiv.org/abs/2508.17346v1
- Date: Sun, 24 Aug 2025 13:03:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.483879
- Title: No Pixel Left Behind: A Detail-Preserving Architecture for Robust High-Resolution AI-Generated Image Detection
- Title(参考訳): 高分解能AI生成画像検出のための詳細な保存アーキテクチャ
- Authors: Lianrui Mu, Zou Xingze, Jianhong Bai, Jiaqi Hu, Wenjie Zheng, Jiangnan Ye, Jiedong Zhuang, Mudassar Ali, Jing Wang, Haoji Hu,
- Abstract要約: High-Resolution Detail-Aggregation Network (HiDA-Net)は、ピクセルが残らないようにする新しいフレームワークである。
HiDA-Netは最先端を実現し、挑戦的なChameleonデータセットでは13%以上、HiRes-50Kでは10%以上の精度向上を実現しています。
- 参考スコア(独自算出の注目度): 15.139983859649922
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The rapid growth of high-resolution, meticulously crafted AI-generated images poses a significant challenge to existing detection methods, which are often trained and evaluated on low-resolution, automatically generated datasets that do not align with the complexities of high-resolution scenarios. A common practice is to resize or center-crop high-resolution images to fit standard network inputs. However, without full coverage of all pixels, such strategies risk either obscuring subtle, high-frequency artifacts or discarding information from uncovered regions, leading to input information loss. In this paper, we introduce the High-Resolution Detail-Aggregation Network (HiDA-Net), a novel framework that ensures no pixel is left behind. We use the Feature Aggregation Module (FAM), which fuses features from multiple full-resolution local tiles with a down-sampled global view of the image. These local features are aggregated and fused with global representations for final prediction, ensuring that native-resolution details are preserved and utilized for detection. To enhance robustness against challenges such as localized AI manipulations and compression, we introduce Token-wise Forgery Localization (TFL) module for fine-grained spatial sensitivity and JPEG Quality Factor Estimation (QFE) module to disentangle generative artifacts from compression noise explicitly. Furthermore, to facilitate future research, we introduce HiRes-50K, a new challenging benchmark consisting of 50,568 images with up to 64 megapixels. Extensive experiments show that HiDA-Net achieves state-of-the-art, increasing accuracy by over 13% on the challenging Chameleon dataset and 10% on our HiRes-50K.
- Abstract(参考訳): 高解像度で精巧に製作されたAI生成画像の急速な成長は、しばしば高解像度のシナリオの複雑さと一致しない低解像度で自動生成されたデータセットでトレーニングされ評価される既存の検出方法に重大な課題をもたらす。
一般的なプラクティスは、標準的なネットワーク入力に適合するように、解像度の高い画像をリサイズまたはセンタークロップすることです。
しかし、全てのピクセルを網羅しなければ、そのような戦略は微妙で高周波なアーティファクトを隠蔽するか、未発見領域から情報を破棄して入力情報を失う恐れがある。
本稿では,ハイレゾリューション・ディテール・アグリゲーション・ネットワーク(HiDA-Net)について紹介する。
我々はFAM(Feature Aggregation Module)を使い、複数のフル解像度のローカルタイルから画像をダウンサンプリングしたグローバルビューで特徴を融合する。
これらの局所的な特徴は、最終予測のためのグローバルな表現と融合し、ネイティブ解像度の詳細が保存され、検出に使用されることを保証する。
局所的なAI操作や圧縮などの課題に対する堅牢性を高めるため,微粒な空間感度を実現するToken-wise Forgery Localization(TFL)モジュールと,圧縮ノイズから生成物を明示的に切り離すJPEG Quality Factor Estimation(QFE)モジュールを導入する。
さらに、今後の研究を促進するために、最大64メガピクセルの50,568枚の画像からなる新しい挑戦的ベンチマークであるHiRes-50Kを紹介する。
大規模な実験によると、HiDA-Netは最先端を実現し、挑戦的なChameleonデータセットでは13%以上、HiRes-50Kでは10%以上精度が向上している。
関連論文リスト
- HRDecoder: High-Resolution Decoder Network for Fundus Image Lesion Segmentation [12.606794661369959]
骨盤病変分割のための簡易高分解能デコーダネットワークHRDecoderを提案する。
高精細な局所的特徴を捉えるための高精細な表現学習モジュールと、マルチスケールの予測を融合する高精細な融合モジュールを統合している。
本手法は, 適正なメモリと計算オーバーヘッドを消費し, 推論速度の満足度を維持しながら, 足底部病変の全体的なセグメンテーション精度を効果的に向上させる。
論文 参考訳(メタデータ) (2024-11-06T15:13:31Z) - Decoupling Fine Detail and Global Geometry for Compressed Depth Map Super-Resolution [55.9977636042469]
圧縮深度マップ超解像のための新しいフレームワークGDNetを提案する。
グローバルおよび詳細な幾何学的特徴を別々に扱うことにより、高品質な深度マップ再構築プロセスを分離する。
我々の解は、幾何的整合性と詳細回復の観点から、現在の方法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-11-05T16:37:30Z) - PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - A Multi-Source Data Fusion-based Semantic Segmentation Model for Relic Landslide Detection [7.095295046737303]
提案したHPCL-NetはLoess Plateau Relic地すべりデータセットを用いて評価した。
提案したHPCL-Netは,mIoUが0.620から0.651に増加し,Landslide IoUが0.334から0.394に改善され,F1scoreが0.501から0.565に向上した既存のモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2023-08-02T16:11:51Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - High Quality Segmentation for Ultra High-resolution Images [72.97958314291648]
超高分解能セグメンテーション精錬作業のための連続精細モデルを提案する。
提案手法は画像分割精細化において高速かつ効果的である。
論文 参考訳(メタデータ) (2021-11-29T11:53:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。