論文の概要: BiHPF: Bilateral High-Pass Filters for Robust Deepfake Detection
- arxiv url: http://arxiv.org/abs/2109.00911v1
- Date: Mon, 16 Aug 2021 07:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 12:45:12.127928
- Title: BiHPF: Bilateral High-Pass Filters for Robust Deepfake Detection
- Title(参考訳): BiHPF:ロバストディープフェイク検出用両側高パスフィルタ
- Authors: Yonghyun Jeong, Doyeon Kim, Seungjai Min, Seongho Joe, Youngjune Gwon,
Jongwon Choi
- Abstract要約: 生成モデルの合成画像に見られる周波数レベルのアーティファクトの効果を増幅するバイラテラルハイパスフィルタ(BiHPF)を提案する。
本手法は、未確認領域でテストしても、他の最先端手法よりも優れている。
- 参考スコア(独自算出の注目度): 14.350298935747668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The advancement in numerous generative models has a two-fold effect: a simple
and easy generation of realistic synthesized images, but also an increased risk
of malicious abuse of those images. Thus, it is important to develop a
generalized detector for synthesized images of any GAN model or object
category, including those unseen during the training phase. However, the
conventional methods heavily depend on the training settings, which cause a
dramatic decline in performance when tested with unknown domains. To resolve
the issue and obtain a generalized detection ability, we propose Bilateral
High-Pass Filters (BiHPF), which amplify the effect of the frequency-level
artifacts that are known to be found in the synthesized images of generative
models. Numerous experimental results validate that our method outperforms
other state-of-the-art methods, even when tested with unseen domains.
- Abstract(参考訳): 多くの生成モデルの進歩には、2つの効果がある: リアルな合成画像の単純で簡単な生成であるだけでなく、それらの画像が悪用されるリスクも増大する。
したがって、GANモデルやオブジェクトカテゴリの合成画像に対して、トレーニングフェーズ中に見えないものを含む一般化された検出器を開発することが重要である。
しかし、従来の手法はトレーニング設定に大きく依存しており、未知のドメインでテストすると劇的に性能が低下する。
この問題を解決するために, 生成モデルの合成画像で見られる周波数レベルのアーティファクトの効果を増幅するバイラテラルハイパスフィルタ (BiHPF) を提案する。
多数の実験結果から,未検出領域でテストした場合でも,本手法は他の最先端手法よりも優れていることが確認された。
関連論文リスト
- Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Towards the Detection of AI-Synthesized Human Face Images [12.090322373964124]
本稿では,GAN(Generative Adversarial Networks)とさまざまなDMによって生成される人間の顔画像を含むベンチマークを提案する。
そして、異なる生成モデルによって導入された偽の痕跡を周波数領域で解析し、様々な知見を得た。
さらに、周波数表現で訓練された検出器が、他の見えない生成モデルとよく一致できることを実証する。
論文 参考訳(メタデータ) (2024-02-13T19:37:44Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - ArtiFact: A Large-Scale Dataset with Artificial and Factual Images for
Generalizable and Robust Synthetic Image Detection [0.3779860024918729]
本稿では,実世界の障害に直面した合成画像検出器の汎用性とロバスト性を評価する。
フィルタストライド削減戦略と組み合わせたマルチクラス分類方式は,社会的プラットフォーム障害に対処する。
ICIP 2022のIEEE VIPカップチャレンジでは、テスト1で8.34%、テスト2で1.26%、テスト3で15.08%と、他のトップチームよりも大幅に優れていた。
論文 参考訳(メタデータ) (2023-02-23T12:40:36Z) - SeeABLE: Soft Discrepancies and Bounded Contrastive Learning for
Exposing Deepfakes [7.553507857251396]
本研究では,検出問題を(一級)アウト・オブ・ディストリビューション検出タスクとして形式化する,SeeABLEと呼ばれる新しいディープフェイク検出器を提案する。
SeeABLEは、新しい回帰ベースの有界コントラスト損失を使用して、乱れた顔を事前定義されたプロトタイプにプッシュする。
我々のモデルは競合する最先端の検出器よりも高い性能を示しながら、高度に一般化能力を示す。
論文 参考訳(メタデータ) (2022-11-21T09:38:30Z) - FrePGAN: Robust Deepfake Detection Using Frequency-level Perturbations [12.027711542565315]
我々は、既知のGANモデルと見えないGANモデルの両方に対してディープフェイク検出器を一般化するためのフレームワークを設計する。
本フレームワークは,実画像と区別できないような周波数レベルの摂動マップを生成する。
実験のために、GANモデル、色操作、オブジェクトカテゴリのトレーニング設定から異なる新しいテストシナリオを設計する。
論文 参考訳(メタデータ) (2022-02-07T16:45:11Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Camera Invariant Feature Learning for Generalized Face Anti-spoofing [95.30490139294136]
本稿では,特徴レベルの取得カメラから固有のばらつきの影響を排除したフレームワークについて述べる。
実験により、提案手法はデータセット内設定とデータセット間設定の両方でより良いパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2021-01-25T13:40:43Z) - Fighting deepfakes by detecting GAN DCT anomalies [0.0]
最先端アルゴリズムはディープニューラルネットワークを使って偽のコンテンツを検出する。
ディープフェイク画像の高精度判別が可能な新しい高速検出法を提案する。
この手法は革新的であり、最先端技術を超え、説明可能性の観点から多くの洞察を与えている。
論文 参考訳(メタデータ) (2021-01-24T19:45:11Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。