論文の概要: All Patches Matter, More Patches Better: Enhance AI-Generated Image Detection via Panoptic Patch Learning
- arxiv url: http://arxiv.org/abs/2504.01396v1
- Date: Wed, 02 Apr 2025 06:32:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:21:36.927534
- Title: All Patches Matter, More Patches Better: Enhance AI-Generated Image Detection via Panoptic Patch Learning
- Title(参考訳): AIが生成した画像検出をパノプティカル・パッチ・ラーニング(Panoptic Patch Learning)で実現
- Authors: Zheng Yang, Ruoxin Chen, Zhiyuan Yan, Ke-Yue Zhang, Xinghe Fu, Shuang Wu, Xiujun Shu, Taiping Yao, Junchi Yan, Shouhong Ding, Xi Li,
- Abstract要約: 我々は、系統解析によるAIGI検出の2つの重要な原則を確立する。
textbf(1) All Patches Matter: 識別的特徴が対象中心領域に集中する従来の画像分類とは異なり、AIGIのそれぞれのパッチは、一様生成プロセスによる合成アーティファクトを本質的に含んでいる。
textbf (2) パッチの改善: より多くのパッチで分散アーティファクトを活用することで、補完的な法医学的証拠をキャプチャすることで検出が改善される。
textbfPanoptic textbfPatch textbfLearning (PPL)フレームワーク。
- 参考スコア(独自算出の注目度): 76.79222779026634
- License:
- Abstract: The exponential growth of AI-generated images (AIGIs) underscores the urgent need for robust and generalizable detection methods. In this paper, we establish two key principles for AIGI detection through systematic analysis: \textbf{(1) All Patches Matter:} Unlike conventional image classification where discriminative features concentrate on object-centric regions, each patch in AIGIs inherently contains synthetic artifacts due to the uniform generation process, suggesting that every patch serves as an important artifact source for detection. \textbf{(2) More Patches Better}: Leveraging distributed artifacts across more patches improves detection robustness by capturing complementary forensic evidence and reducing over-reliance on specific patches, thereby enhancing robustness and generalization. However, our counterfactual analysis reveals an undesirable phenomenon: naively trained detectors often exhibit a \textbf{Few-Patch Bias}, discriminating between real and synthetic images based on minority patches. We identify \textbf{Lazy Learner} as the root cause: detectors preferentially learn conspicuous artifacts in limited patches while neglecting broader artifact distributions. To address this bias, we propose the \textbf{P}anoptic \textbf{P}atch \textbf{L}earning (PPL) framework, involving: (1) Random Patch Replacement that randomly substitutes synthetic patches with real counterparts to compel models to identify artifacts in underutilized regions, encouraging the broader use of more patches; (2) Patch-wise Contrastive Learning that enforces consistent discriminative capability across all patches, ensuring uniform utilization of all patches. Extensive experiments across two different settings on several benchmarks verify the effectiveness of our approach.
- Abstract(参考訳): AI生成画像(AIGI)の指数的成長は、堅牢で一般化可能な検出方法の緊急の必要性を浮き彫りにしている。
本稿では,AIGIにおける各パッチは,一様生成プロセスによる合成アーティファクトを本質的に含んでいる従来の画像分類とは異なり,各パッチが検出のための重要なアーティファクトとして機能することを示唆する。
\textbf{(2) More Patches Better}: より多くのパッチで分散アーティファクトを活用することで、補完的な法医学的証拠を収集し、特定のパッチに対する過度な信頼を減らし、ロバスト性と一般化を強化することで、検出ロバスト性を改善する。
しかし、我々のカウンターファクト分析は、望ましくない現象を明らかにしている: 鼻で訓練された検出器は、しばしば \textbf{Few-Patch Bias} を示し、マイノリティパッチに基づいた実像と合成像を識別する。
検出器は、より広いアーティファクト分布を無視しながら、限られたパッチで顕著なアーティファクトを優先的に学習する。
このバイアスに対処するために、(1)合成パッチを実際のパッチにランダムに置換して、未利用領域のアーティファクトを識別するためにモデルを強制するランダムパッチ置換(Random Patch Replacement)、(2)全てのパッチに対して一貫した識別能力を強制するパッチワイドコントラストラーニング(Patch-wise Contrastive Learning)を提案する。
いくつかのベンチマークで2つの異なる設定にわたる大規模な実験により、我々のアプローチの有効性が検証された。
関連論文リスト
- SoftPatch+: Fully Unsupervised Anomaly Classification and Segmentation [84.07909405887696]
本論文は、完全教師なし産業異常検出(すなわち、ノイズデータ付き教師なしAD)を初めて検討したものである。
メモリベースの非教師なしAD手法であるSoftPatchとSoftPatch+を提案する。
既存の手法と比較して、SoftPatchは通常のデータの強力なモデリング能力を維持し、コアセットにおける過信問題を軽減する。
様々なノイズシナリオで実施された総合的な実験により、SoftPatchとSoftPatch+はMVTecAD、ViSA、BTADのベンチマークで最先端のADメソッドよりも優れていた。
論文 参考訳(メタデータ) (2024-12-30T11:16:49Z) - Orthogonal Subspace Decomposition for Generalizable AI-Generated Image Detection [58.87142367781417]
航法的に訓練された検出器は、限定的で単調な偽のパターンに過度に適合する傾向にあり、特徴空間は高度に制約され、低ランクになる。
潜在的な治療法の1つは、ビジョンファウンデーションモデルに事前訓練された知識を取り入れて、機能領域を広げることである。
主成分を凍結し,残った成分のみを適応させることで,偽造関係のパターンを学習しながら,事前学習した知識を保存できる。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Semi-supervised 3D Object Detection with PatchTeacher and PillarMix [71.4908268136439]
現在の半教師付き3Dオブジェクト検出法では、教師が学生に擬似ラベルを生成するのが一般的である。
学生に高品質な擬似ラベルを提供するために,部分的なシーン3Dオブジェクト検出に焦点を当てたPatchTeacherを提案する。
本稿では,PatchTeacherの性能向上のために,Patch Normalizer,Quadrant Align,Fovea Selectionの3つの重要なテクニックを紹介する。
論文 参考訳(メタデータ) (2024-07-13T06:58:49Z) - PAD: Patch-Agnostic Defense against Adversarial Patch Attacks [36.865204327754626]
敵パッチ攻撃は現実世界の物体検出装置に重大な脅威をもたらす。
本研究は,敵対的パッチ,意味的独立性,空間的不均一性の2つの特性を示す。
PADは,事前知識や追加訓練を必要としない,新たな逆パッチのローカライゼーションと除去手法である。
論文 参考訳(メタデータ) (2024-04-25T09:32:34Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - Feasibility of Inconspicuous GAN-generated Adversarial Patches against
Object Detection [3.395452700023097]
本研究では,不明瞭なパッチを生成する既存のアプローチを評価した。
我々は、GANトレーニングプロセスにパッチ生成を組み込むことと、事前訓練したGANを使用することで、自然主義的パッチを生成する2つのアプローチを評価した。
実験の結果,事前学習したGANは,従来の対向パッチと同様の性能を維持しつつ,現実的なパッチの獲得に役立つことがわかった。
論文 参考訳(メタデータ) (2022-07-15T08:48:40Z) - PatchNet: A Simple Face Anti-Spoofing Framework via Fine-Grained Patch
Recognition [13.840830140721462]
フェース・アンチ・スプーフィング(FAS)は、提示攻撃から顔認識システムを保護する上で重要な役割を担っている。
そこで本稿では,顔の偽造をきめ細かなパッチ型認識問題として再構成するPatchNetを提案する。
論文 参考訳(メタデータ) (2022-03-27T15:16:17Z) - PatchCensor: Patch Robustness Certification for Transformers via
Exhaustive Testing [7.88628640954152]
Vision Transformer (ViT)は、他の古典的ニューラルネットワークと同様に非常に非線形であることが知られており、自然なパッチの摂動と逆パッチの摂動の両方によって容易に騙される。
この制限は、特に安全クリティカルなシナリオにおいて、実際の産業環境におけるViTの展開に脅威をもたらす可能性がある。
PatchCensorを提案する。このPatchCensorは、徹底的なテストを適用することで、ViTのパッチ堅牢性を証明することを目的としている。
論文 参考訳(メタデータ) (2021-11-19T23:45:23Z) - Generating Adversarial yet Inconspicuous Patches with a Single Image [15.217367754000913]
そこで本研究では, 対角的かつ不明瞭なパッチを単一画像で生成する手法を提案する。
提案手法では,複数スケールのジェネレータと識別器を用いて,逆パッチを粗大な方法で生成する。
我々のap-proachは、ホワイトボックスとブラックボックスの両方で強力な攻撃能力を示している。
論文 参考訳(メタデータ) (2020-09-21T11:56:01Z) - Rethinking Generative Zero-Shot Learning: An Ensemble Learning
Perspective for Recognising Visual Patches [52.67723703088284]
我々はMPGAN(Multi-patch Generative Adversarial Nets)と呼ばれる新しいフレームワークを提案する。
MPGANは、新しい重み付き投票戦略で、ローカルパッチ機能とラベルが見えないクラスを合成する。
MPGANは最先端の手法よりもはるかに精度が高い。
論文 参考訳(メタデータ) (2020-07-27T05:49:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。