論文の概要: Referee: Reference-aware Audiovisual Deepfake Detection
- arxiv url: http://arxiv.org/abs/2510.27475v1
- Date: Fri, 31 Oct 2025 13:54:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.116757
- Title: Referee: Reference-aware Audiovisual Deepfake Detection
- Title(参考訳): 参照:参照型視聴覚ディープフェイク検出
- Authors: Hyemin Boo, Eunsang Lee, Jiyoung Lee,
- Abstract要約: Refereeは、参照対応のオーディオヴィジュアルフェイク検出方法である。
ワンショット例のみによる話者固有の手がかりを利用して、参照を超えた深い操作を検出する。
- 参考スコア(独自算出の注目度): 9.846282116706528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since deepfakes generated by advanced generative models have rapidly posed serious threats, existing audiovisual deepfake detection approaches struggle to generalize to unseen forgeries. We propose a novel reference-aware audiovisual deepfake detection method, called Referee. Speaker-specific cues from only one-shot examples are leveraged to detect manipulations beyond spatiotemporal artifacts. By matching and aligning identity-related queries from reference and target content into cross-modal features, Referee jointly reasons about audiovisual synchrony and identity consistency. Extensive experiments on FakeAVCeleb, FaceForensics++, and KoDF demonstrate that Referee achieves state-of-the-art performance on cross-dataset and cross-language evaluation protocols. Experimental results highlight the importance of cross-modal identity verification for future deepfake detection. The code is available at https://github.com/ewha-mmai/referee.
- Abstract(参考訳): 先進的な生成モデルによって生成されたディープフェイクは、急速に深刻な脅威となっているため、既存のオーディオ視覚的ディープフェイク検出アプローチは、目に見えない偽造に一般化するのに苦労している。
本稿では,Refereeと呼ばれる参照型オーディオビジュアルディープフェイク検出手法を提案する。
ワンショット例のみによる話者固有の手がかりを利用して、時空間人工物以外の操作を検出する。
参照とターゲットコンテンツからのアイデンティティ関連クエリを相互に関連付けることで、Refereeはオーディオ視覚同期とアイデンティティ整合性に関して共同で理由を定める。
FakeAVCeleb、FaceForensics++、KoDFに関する大規模な実験は、Refereeがクロスデータセットおよびクロスランゲージ評価プロトコルで最先端のパフォーマンスを達成することを実証している。
実験結果は,将来のディープフェイク検出におけるクロスモーダル認証の重要性を強調した。
コードはhttps://github.com/ewha-mmai/referee.comで公開されている。
関連論文リスト
- A Multi-Stream Fusion Approach with One-Class Learning for Audio-Visual Deepfake Detection [17.285669984798975]
本稿では,ロバストな音声・視覚深度検出モデルを開発する上での課題について述べる。
新たな世代のアルゴリズムが絶えず出現しており、検出方法の開発中にこれらのアルゴリズムは遭遇しない。
表現レベルの正規化手法として,一級学習を用いたマルチストリーム融合手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T10:33:15Z) - Training-Free Deepfake Voice Recognition by Leveraging Large-Scale Pre-Trained Models [52.04189118767758]
一般化は、現在のオーディオディープフェイク検出器の主な問題である。
本稿では,オーディオディープフェイク検出のための大規模事前学習モデルの可能性について検討する。
論文 参考訳(メタデータ) (2024-05-03T15:27:11Z) - MIS-AVoiDD: Modality Invariant and Specific Representation for
Audio-Visual Deepfake Detection [4.659427498118277]
新しいタイプのディープフェイクが登場し、オーディオまたは視覚的モーダルが操作された。
既存のマルチモーダルディープフェイク検出器は、しばしばビデオからのオーディオとビジュアルストリームの融合に基づいている。
本稿では,マルチモーダルディープフェイク検出のための音声と視覚ストリームの融合を支援するために,表現レベルでの問題に取り組む。
論文 参考訳(メタデータ) (2023-10-03T17:43:24Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Voice-Face Homogeneity Tells Deepfake [56.334968246631725]
既存の検出アプローチは、ディープフェイクビデオにおける特定のアーティファクトの探索に寄与する。
未探索の音声-顔のマッチングビューからディープフェイク検出を行う。
我々のモデルは、他の最先端の競合と比較して、大幅に性能が向上する。
論文 参考訳(メタデータ) (2022-03-04T09:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。