論文の概要: RCDN: Real-Centered Detection Network for Robust Face Forgery Identification
- arxiv url: http://arxiv.org/abs/2601.12111v1
- Date: Sat, 17 Jan 2026 17:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.467777
- Title: RCDN: Real-Centered Detection Network for Robust Face Forgery Identification
- Title(参考訳): RCDN:ロバスト顔偽物識別のための実中心検出ネットワーク
- Authors: Wyatt McCurdy, Xin Zhang, Yuqi Song, Min Gao,
- Abstract要約: 既存の検出方法は、同一領域内でトレーニングやテストを行う場合、ほぼ完璧な性能を達成する。
新しい偽造技術が継続的に出現し、検出器は目に見えない操作に対して信頼性を保たなければならない。
本稿では,周波数空間畳み込みニューラルネットワーク(CNN)フレームワークであるReal-Centered Detection Network (RCDN)を提案する。
- 参考スコア(独自算出の注目度): 7.41356813669013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image forgery has become a critical threat with the rapid proliferation of AI-based generation tools, which make it increasingly easy to synthesize realistic but fraudulent facial content. Existing detection methods achieve near-perfect performance when training and testing are conducted within the same domain, yet their effectiveness deteriorates substantially in crossdomain scenarios. This limitation is problematic, as new forgery techniques continuously emerge and detectors must remain reliable against unseen manipulations. To address this challenge, we propose the Real-Centered Detection Network (RCDN), a frequency spatial convolutional neural networks(CNN) framework with an Xception backbone that anchors its representation space around authentic facial images. Instead of modeling the diverse and evolving patterns of forgeries, RCDN emphasizes the consistency of real images, leveraging a dual-branch architecture and a real centered loss design to enhance robustness under distribution shifts. Extensive experiments on the DiFF dataset, focusing on three representative forgery types (FE, I2I, T2I), demonstrate that RCDN achieves both state-of-the-art in-domain accuracy and significantly stronger cross-domain generalization. Notably, RCDN reduces the generalization gap compared to leading baselines and achieves the highest cross/in-domain stability ratio, highlighting its potential as a practical solution for defending against evolving and unseen image forgery techniques.
- Abstract(参考訳): 画像偽造は、AIベースの生成ツールが急速に普及する中で、重要な脅威となっている。
既存の検出方法は、同一ドメイン内でトレーニングとテストを行う場合、ほぼ完璧な性能を達成するが、その効果はクロスドメインシナリオで著しく低下する。
この制限は問題であり、新しい偽造技術が継続的に出現し、検出器は目に見えない操作に対して信頼性を保たなければならない。
この課題に対処するために,Xceptionバックボーンを備えた周波数空間畳み込みニューラルネットワーク(CNN)フレームワークであるReal-Centered Detection Network (RCDN)を提案する。
RCDNは、分岐パターンの多様で進化するパターンをモデル化する代わりに、実際のイメージの一貫性を強調し、分散シフト下で堅牢性を高めるために、デュアルブランチアーキテクチャと真の集中型損失設計を活用する。
DiFFデータセットの大規模な実験は、3つの代表的な偽型(FE, I2I, T2I)に焦点を当て、RCDNが最先端のドメイン内精度と、はるかに強力なクロスドメイン一般化を達成することを実証している。
特に、RCDNは、先頭のベースラインと比較して一般化のギャップを減らし、最も高いクロス/イン・ドメインの安定性比を達成し、進化と見えない画像偽造技術に対する現実的な解決策としての可能性を強調している。
関連論文リスト
- Patch-Discontinuity Mining for Generalized Deepfake Detection [18.30761992906741]
ディープフェイク検出法は、しばしば手作りの法医学的手がかりと複雑なアーキテクチャに依存している。
我々は,強力な視覚モデルをコンパクトで巧妙なネットワーク設計でディープフェイク検出タスクに転送するフレームワークであるGenDFを提案する。
実験により、GenDFはクロスドメインおよびクロスマニピュレーション設定における最先端の一般化性能を達成することが示された。
論文 参考訳(メタデータ) (2025-12-26T13:18:14Z) - A Dual-Branch CNN for Robust Detection of AI-Generated Facial Forgeries [4.313893060699182]
顔偽造技術は、AIセキュリティ、デジタルメディアの完全性、および公的な信頼に重大な脅威をもたらす。
顔偽造検出のための新しい二分岐畳み込みニューラルネットワークを提案する。
4つの代表法から生成された鍛造画像を含むDiFFベンチマークを用いて,本モデルの評価を行った。
論文 参考訳(メタデータ) (2025-10-28T17:06:40Z) - SRSR: Enhancing Semantic Accuracy in Real-World Image Super-Resolution with Spatially Re-Focused Text-Conditioning [59.013863248600046]
本稿では,空間的に再焦点を絞ったテキストコンディショニングを推論時に洗練する超解像フレームワークを提案する。
第二に,非接地画素に対するテキストの影響を選択的に回避し,幻覚を防ぐ空間的自由誘導機構を導入する。
論文 参考訳(メタデータ) (2025-10-26T05:03:55Z) - Towards Robust and Realistic Human Pose Estimation via WiFi Signals [85.60557095666934]
WiFiベースの人間のポーズ推定は、離散的で微妙なWiFi信号を人間の骨格にブリッジする難しいタスクである。
本論文は,本問題を再検討し,(1)ドメイン間ギャップ,(2)ソース・ターゲット領域のポーズ分布の顕著な変化,(2)骨格のポーズが歪んだトポロジーを示す構造的フィデリティギャップ,の2つの重要な問題を明らかにする。
本稿では,タスクをDT-Poseと呼ばれる新しい2段階のフレームワークに書き換えることで,これらのギャップを埋める:ドメイン一貫性表現学習とトポロジ制約ポスデコーディング。
論文 参考訳(メタデータ) (2025-01-16T09:38:22Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - CTS: Sim-to-Real Unsupervised Domain Adaptation on 3D Detection [16.96201890965781]
本稿では,ラベル付きシミュレーションからラベル付き現実領域へモデルを転送するための新しいフレームワークを提案する。
実験結果から,提案手法は3次元物体検出モデルの実領域適応能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2024-06-26T07:31:16Z) - You Only Train Once: A Unified Framework for Both Full-Reference and No-Reference Image Quality Assessment [45.62136459502005]
本稿では,完全な参照 (FR) と非参照 (NR) IQA を行うネットワークを提案する。
まず、入力画像から多レベル特徴を抽出するためにエンコーダを用いる。
FRおよびNR入力のユニバーサルアダプタとして階層的注意(HA)モジュールを提案する。
エンコーダの浅い層と深い層との間の特徴相関を調べるために, セマンティック・ディストーション・アウェア (SDA) モジュールを提案する。
論文 参考訳(メタデータ) (2023-10-14T11:03:04Z) - Real-World Image Super Resolution via Unsupervised Bi-directional Cycle
Domain Transfer Learning based Generative Adversarial Network [14.898170534545727]
UBCDTLGAN(Unsupervised Bi-directional Cycle Domain Transfer Learning-based Generative Adrial Network)を提案する。
まず、UBCDTNは、人工劣化領域から実世界の画像領域にLR画像を転送することで、近似された実状LR画像を生成することができる。
第二に、SESRNは、近似されたリアルライクなLR画像をフォトリアリスティックなHR画像に超解ける能力を持っている。
論文 参考訳(メタデータ) (2022-11-19T02:19:21Z) - Heterogeneous Face Frontalization via Domain Agnostic Learning [74.86585699909459]
本研究では, 視覚領域における正面視を, ポーズのバリエーションで合成できるドメイン非依存学習型生成逆数ネットワーク(DAL-GAN)を提案する。
DAL-GANは、補助分類器を備えたジェネレータと、より優れた合成のために局所的およびグローバルなテクスチャ識別をキャプチャする2つの識別器から構成される。
論文 参考訳(メタデータ) (2021-07-17T20:41:41Z) - Background Adaptive Faster R-CNN for Semi-Supervised Convolutional
Object Detection of Threats in X-Ray Images [64.39996451133268]
我々は、バックグラウンド適応型高速R-CNNと呼ばれる脅威認識のための半教師付きアプローチを提案する。
本手法は,ディープラーニング分野からのドメイン適応手法を用いた2段階物体検出器の訓練手法である。
2つのドメイン識別器(1つはオブジェクト提案を識別し、もう1つは画像特徴を識別する)は、ドメイン固有の情報を符号化するのを防ぐために敵対的に訓練される。
これにより、手作業の背景から抽出した特徴の統計と実世界のデータとを一致させることで、脅威検出の誤報率を低減することができる。
論文 参考訳(メタデータ) (2020-10-02T21:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。