論文の概要: Fair and Interpretable Deepfake Detection in Videos
- arxiv url: http://arxiv.org/abs/2510.17264v1
- Date: Mon, 20 Oct 2025 07:50:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.356811
- Title: Fair and Interpretable Deepfake Detection in Videos
- Title(参考訳): ビデオにおける公平かつ解釈可能なディープフェイク検出
- Authors: Akihito Yoshii, Ryosuke Sonoda, Ramya Srinivasan,
- Abstract要約: 既存のディープフェイク検出方法はバイアスを示し、透明性を欠き、時間情報の取得に失敗する。
本稿では,時間的特徴学習と人口統計学的データ拡張を統合したフェアネス対応のディープフェイク検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.594420805049218
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Existing deepfake detection methods often exhibit bias, lack transparency, and fail to capture temporal information, leading to biased decisions and unreliable results across different demographic groups. In this paper, we propose a fairness-aware deepfake detection framework that integrates temporal feature learning and demographic-aware data augmentation to enhance fairness and interpretability. Our method leverages sequence-based clustering for temporal modeling of deepfake videos and concept extraction to improve detection reliability while also facilitating interpretable decisions for non-expert users. Additionally, we introduce a demography-aware data augmentation method that balances underrepresented groups and applies frequency-domain transformations to preserve deepfake artifacts, thereby mitigating bias and improving generalization. Extensive experiments on FaceForensics++, DFD, Celeb-DF, and DFDC datasets using state-of-the-art (SoTA) architectures (Xception, ResNet) demonstrate the efficacy of the proposed method in obtaining the best tradeoff between fairness and accuracy when compared to SoTA.
- Abstract(参考訳): 既存のディープフェイク検出手法は、しばしばバイアスを示し、透明性を欠き、時間的情報の取得に失敗する。
本稿では、時間的特徴学習と人口統計学的データ拡張を統合し、公平性と解釈可能性を高めるフェアネス対応のディープフェイク検出フレームワークを提案する。
提案手法は,ディープフェイク映像の時間的モデリングと概念抽出にシーケンスベースのクラスタリングを活用し,検出信頼性を向上させるとともに,非エキスパートユーザの解釈的判断を容易にする。
さらに、疎結合なグループと周波数領域変換を適用して、ディープフェイクのアーティファクトを保存し、バイアスを緩和し、一般化を改善する。
FaceForensics++, DFD, Celeb-DF, DFDCデータセットに対して, 最先端(SoTA)アーキテクチャ(Xception, ResNet)を用いて大規模な実験を行った。
関連論文リスト
- DiffusionFF: Face Forgery Detection via Diffusion-based Artifact Localization [21.139016641596676]
DiffusionFFは、拡散に基づくアーティファクトローカライゼーションによる顔偽造検出を強化する新しいフレームワークである。
本手法は,高次拡散モデルを用いて高次構造相似性(DSSIM)マップを生成し,微妙な操作の痕跡を効果的に捉える。
論文 参考訳(メタデータ) (2025-08-03T18:06:04Z) - FAME: A Lightweight Spatio-Temporal Network for Model Attribution of Face-Swap Deepfakes [9.462613446025001]
フェイスフェイクのDeepfakeビデオは、デジタルセキュリティ、プライバシー、メディアの整合性へのリスクが高まる。
FAMEは、異なる顔生成モデルに特有の微妙なアーティファクトをキャプチャするために設計されたフレームワークである。
結果は、FAMEが既存のメソッドを精度と実行時の両方で一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-06-13T05:47:09Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Self-Supervised Graph Transformer for Deepfake Detection [1.8133635752982105]
ディープフェイク検出手法は、与えられたデータセット内の偽造を認識できる有望な結果を示している。
ディープフェイク検出システムは、一般的な検出性能を保証するために、偽造タイプ、外観、品質に欠かせないままでいなければならない。
本研究では、自己教師付き事前学習モデルを利用して、例外的な一般化能力を実現するディープフェイク検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-27T17:22:41Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。