論文の概要: A-PixelHop: A Green, Robust and Explainable Fake-Image Detector
- arxiv url: http://arxiv.org/abs/2111.04012v1
- Date: Sun, 7 Nov 2021 06:31:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 08:43:38.563839
- Title: A-PixelHop: A Green, Robust and Explainable Fake-Image Detector
- Title(参考訳): A-PixelHop:グリーン、ロバスト、説明可能なフェイクイメージ検出器
- Authors: Yao Zhu, Xinyu Wang, Hong-Shuo Chen, Ronald Salloum, C.-C. Jay Kuo
- Abstract要約: 本稿では,CNN生成画像を検出する新しい手法であるAttentive PixelHop(A-PixelHop)を提案する。
1)低い計算複雑性と小さなモデルサイズ、2)幅広い生成モデルに対する高い検出性能、3)数学的透明性の3つの利点がある。
- 参考スコア(独自算出の注目度): 27.34087987867584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel method for detecting CNN-generated images, called Attentive PixelHop
(or A-PixelHop), is proposed in this work. It has three advantages: 1) low
computational complexity and a small model size, 2) high detection performance
against a wide range of generative models, and 3) mathematical transparency.
A-PixelHop is designed under the assumption that it is difficult to synthesize
high-quality, high-frequency components in local regions. It contains four
building modules: 1) selecting edge/texture blocks that contain significant
high-frequency components, 2) applying multiple filter banks to them to obtain
rich sets of spatial-spectral responses as features, 3) feeding features to
multiple binary classifiers to obtain a set of soft decisions, 4) developing an
effective ensemble scheme to fuse the soft decisions into the final decision.
Experimental results show that A-PixelHop outperforms state-of-the-art methods
in detecting CycleGAN-generated images. Furthermore, it can generalize well to
unseen generative models and datasets.
- Abstract(参考訳): 本稿では,CNN生成画像を検出する新しい手法であるAttentive PixelHop(A-PixelHop)を提案する。
3つの利点があります
1) 計算複雑性が低く, モデルサイズが小さい。
2)多種多様な生成モデルに対する高い検出性能、及び
3) 数学的透明性。
A-PixelHopは、局所的に高品質な高周波成分を合成することが難しいという前提で設計されている。
ビルディングモジュールは4つある。
1)重要な高周波成分を含むエッジ/テクスチャブロックを選択する。
2)複数のフィルタバンクを適用して,リッチな空間スペクトル応答を特徴とする。
3)複数のバイナリ分類器に特徴を与え、ソフトな決定の集合を得る。
4)ソフト決定を最終決定に融合させる効果的なアンサンブルスキームの開発。
実験の結果,A-PixelHopはCycleGAN生成画像の検出において最先端の手法よりも優れていた。
さらに、知覚できない生成モデルやデータセットにうまく一般化することができる。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - PFGS: High Fidelity Point Cloud Rendering via Feature Splatting [5.866747029417274]
スパースポイントから高品質な画像をレンダリングする新しいフレームワークを提案する。
この手法はまず3次元ガウス格子と点雲のレンダリングを橋渡しする。
異なるベンチマーク実験により、レンダリング品質と主成分の必要性の観点から、我々の手法の優位性を示す。
論文 参考訳(メタデータ) (2024-07-04T11:42:54Z) - Spatially Optimized Compact Deep Metric Learning Model for Similarity Search [1.0015171648915433]
類似性探索は空間的特徴が重要な出力を決定する重要なタスクである。
本研究では,コンパクトな畳み込みモデルとともに単一の畳み込み特徴抽出器の層を利用することにより,類似性探索の性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2024-04-09T19:49:01Z) - Differentiable Registration of Images and LiDAR Point Clouds with
VoxelPoint-to-Pixel Matching [58.10418136917358]
カメラからの2D画像とLiDARからの3Dポイントクラウドの間のクロスモダリティ登録は、コンピュータビジョンとロボットトレーニングにおいて重要な課題である。
ニューラルネットワークで学習した点パターンと画素パターンのマッチングによる2次元3次元対応の推定
我々は、異なる潜在画素空間を介して3次元特徴を表現するために、構造化されたモダリティマッチングソルバを学習する。
論文 参考訳(メタデータ) (2023-12-07T05:46:10Z) - Complementary Frequency-Varying Awareness Network for Open-Set
Fine-Grained Image Recognition [14.450381668547259]
オープンセット画像認識はコンピュータビジョンにおける課題である。
本稿では,高周波情報と低周波情報の両方をよりよく把握できる補完周波数変化認識ネットワークを提案する。
CFANに基づいて,CFAN-OSFGRと呼ばれるオープンセットのきめ細かい画像認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T08:15:36Z) - Green Steganalyzer: A Green Learning Approach to Image Steganalysis [30.486433532000344]
Green Steganalyzer (GS)は、グリーンラーニングパラダイムに基づいた画像ステガナリシスの学習ソリューションである。
GSは3つのモジュールで構成されている: ピクセルベースの異常予測、2)埋め込み位置検出、3)画像レベルの検出のための決定融合である。
論文 参考訳(メタデータ) (2023-06-06T20:43:07Z) - BIMS-PU: Bi-Directional and Multi-Scale Point Cloud Upsampling [60.257912103351394]
我々はBIMS-PUと呼ばれる新しいポイント・クラウド・アップサンプリング・パイプラインを開発した。
対象のサンプリング因子を小さな因子に分解することにより,アップ/ダウンサンプリング手順をいくつかのアップ/ダウンサンプリングサブステップに分解する。
提案手法は最先端手法よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-25T13:13:37Z) - VPFNet: Voxel-Pixel Fusion Network for Multi-class 3D Object Detection [5.12292602924464]
本稿では,Voxel-Pixel Fusion Network (VPFNet) という,核融合に基づく3次元物体検出ネットワークを提案する。
提案手法は,マルチレベル難易度下でのマルチクラス3Dオブジェクト検出タスクに対して,KITTIベンチマークを用いて評価する。
平均平均精度(mAP)において、すべての最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-01T14:17:09Z) - Global Filter Networks for Image Classification [90.81352483076323]
本稿では,対数線形複雑度を持つ周波数領域における長期空間依存性を学習する,概念的に単純だが計算効率のよいアーキテクチャを提案する。
この結果から,GFNetはトランスフォーマー型モデルやCNNの効率,一般化能力,堅牢性において,非常に競争力のある代替手段となる可能性が示唆された。
論文 参考訳(メタデータ) (2021-07-01T17:58:16Z) - Generalizing Face Forgery Detection with High-frequency Features [63.33397573649408]
現在のCNNベースの検出器は、メソッド固有の色テクスチャに過度に適合するため、一般化に失敗する傾向にある。
フェースフォージェリ検出に高周波雑音を用いることを提案する。
1つは、複数のスケールで高周波ノイズを抽出するマルチスケールの高周波特徴抽出モジュールである。
2つ目は、低レベルRGB特徴抽出器を導く残差誘導空間注意モジュールで、新しい視点からフォージェリートレースにもっと集中する。
論文 参考訳(メタデータ) (2021-03-23T08:19:21Z) - ITSELF: Iterative Saliency Estimation fLexible Framework [68.8204255655161]
機密度オブジェクト検出は、画像で最も顕著なオブジェクトを推定する。
我々は,ユーザ定義の仮定をモデルに追加できる,スーパーピクセルベースのITELF(ITSELF)を提案する。
ITSELFを5つのメトリクスと6つのデータセットで2つの最先端の精度推定器と比較する。
論文 参考訳(メタデータ) (2020-06-30T16:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。