論文の概要: Defending Deepfake via Texture Feature Perturbation
- arxiv url: http://arxiv.org/abs/2508.17315v1
- Date: Sun, 24 Aug 2025 11:53:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.462829
- Title: Defending Deepfake via Texture Feature Perturbation
- Title(参考訳): テクスチャ特徴摂動によるディフェンディングディープフェイク
- Authors: Xiao Zhang, Changfang Chen, Tianyi Wang,
- Abstract要約: 顔のテクスチャの特徴に基づく能動的ディープフェイク検出手法を提案する。
人間の目は滑らかな領域の摂動に敏感であるため、知覚力の低いテクスチャ領域に摂動を目視で挿入する。
我々のテクスチャ誘導摂動フレームワークはまずローカルバイナリパターン(LBP)を介して予備的なテクスチャ特徴を抽出し、次いでテクスチャ摂動の生成と最適化のための2モデルアテンション戦略を導入する。
- 参考スコア(独自算出の注目度): 6.809319592581059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development of Deepfake technology poses severe challenges to social trust and information security. While most existing detection methods primarily rely on passive analyses, due to unresolvable high-quality Deepfake contents, proactive defense has recently emerged by inserting invisible signals in advance of image editing. In this paper, we introduce a proactive Deepfake detection approach based on facial texture features. Since human eyes are more sensitive to perturbations in smooth regions, we invisibly insert perturbations within texture regions that have low perceptual saliency, applying localized perturbations to key texture regions while minimizing unwanted noise in non-textured areas. Our texture-guided perturbation framework first extracts preliminary texture features via Local Binary Patterns (LBP), and then introduces a dual-model attention strategy to generate and optimize texture perturbations. Experiments on CelebA-HQ and LFW datasets demonstrate the promising performance of our method in distorting Deepfake generation and producing obvious visual defects under multiple attack models, providing an efficient and scalable solution for proactive Deepfake detection.
- Abstract(参考訳): ディープフェイク技術の急速な発展は、社会的信頼と情報セキュリティに深刻な課題をもたらす。
既存の検出手法は主に受動的解析に依存しているが、未解決の高品質なディープフェイクコンテンツのため、画像編集に先立って見えない信号を挿入することによって、能動的防御が最近出現している。
本稿では,顔のテクスチャの特徴に基づく能動的ディープフェイク検出手法を提案する。
人間の目はスムーズな地域での摂動に敏感であるため、知覚力の低いテクスチャ領域の摂動を視覚的に挿入し、キーテクスチャ領域に局所的な摂動を適用し、非テクスチャ領域の望ましくないノイズを最小限に抑える。
我々のテクスチャ誘導摂動フレームワークは、まずローカルバイナリパターン(LBP)を介して予備的なテクスチャ特徴を抽出し、次いで、テクスチャ摂動の生成と最適化のためのデュアルモデルアテンション戦略を導入する。
CelebA-HQとLFWデータセットの実験では、Deepfakeの生成を歪め、複数の攻撃モデルの下で明らかな視覚的欠陥を発生させることで、我々の手法の有望な性能を示し、プロアクティブなDeepfake検出のための効率的でスケーラブルなソリューションを提供する。
関連論文リスト
- Pay Less Attention to Deceptive Artifacts: Robust Detection of Compressed Deepfakes on Online Social Networks [81.21729774122554]
オンラインソーシャルネットワーク(OSNs)における圧縮による「ブロック効果を見下ろす既存のディープフェイク検出方法」
本稿では,ペア化データの欠如と圧縮画像の非効率利用に対処する新しいフレームワークPLADAを提案する。
PLADAは2つのコアモジュールで構成されている。Block Effect Eraser (B2E) はブロック効果を処理するために2段階のアテンション機構を使用し、Open Data Aggregation (ODA) はペアデータとアンペアデータの両方を処理して検出を改善する。
論文 参考訳(メタデータ) (2025-06-25T15:46:41Z) - FaceShield: Defending Facial Image against Deepfake Threats [11.78218702283404]
FaceShieldは拡散モデル(DM)が生み出すディープフェイクをターゲットとした能動的防御手法である
提案手法は3つの主要要素からなる: (i) DMの注意機構を操作し, 認知過程において保護された顔の特徴を排除し, (ii) 顔の特徴抽出モデルをターゲットとし, 対向的摂動の堅牢性を高める, (iii) ガウス的ぼかしとローパスフィルタリング技術を用いてJPEG圧縮に対する頑健性を高めつつ, 知覚能力を向上させる。
論文 参考訳(メタデータ) (2024-12-13T07:20:35Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Towards More General Video-based Deepfake Detection through Facial Component Guided Adaptation for Foundation Model [16.69101880602321]
一般化ビデオに基づくDeepfake検出のためのサイドネットワークベースのデコーダを提案する。
また、空間学習の一般化性を高めるために、FCG(Facial Component Guidance)を導入する。
提案手法は,Deepfakeデータセットに挑戦する上で有望な一般化性を示す。
論文 参考訳(メタデータ) (2024-04-08T14:58:52Z) - TSAR-MVS: Textureless-aware Segmentation and Correlative Refinement Guided Multi-View Stereo [3.6728185343140685]
テクスチャレス・アンド・コリレーティブ・リファインメント・ガイド付きマルチビューステレオ (TSAR-MVS) 法を提案する。
フィルター,精細化,セグメンテーションによる3次元再構成におけるテクスチャレス領域による課題を効果的に解決する。
ETH3D, Tanks & Temples および Strecha データセットの実験により,提案手法の優れた性能と強みが示された。
論文 参考訳(メタデータ) (2023-08-19T11:40:57Z) - On the Vulnerability of DeepFake Detectors to Attacks Generated by
Denoising Diffusion Models [0.5827521884806072]
我々は,最新の生成手法によって生成されたブラックボックス攻撃に対する単一イメージのディープフェイク検出器の脆弱性について検討した。
われわれの実験はFaceForensics++で行われている。
以上の結果から,ディープフェイクの再建過程において,1段階の偏微分拡散のみを用いることで,検出可能性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-07-11T15:57:51Z) - NPVForensics: Jointing Non-critical Phonemes and Visemes for Deepfake
Detection [50.33525966541906]
既存のマルチモーダル検出手法は、Deepfakeビデオを公開するために、音声と視覚の不整合をキャプチャする。
NPVForensics と呼ばれる非臨界音素とビセムの相関関係を抽出する新しいディープフェイク検出法を提案する。
我々のモデルは、微調整で下流のDeepfakeデータセットに容易に適応できる。
論文 参考訳(メタデータ) (2023-06-12T06:06:05Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。