論文の概要: Robust and Calibrated Detection of Authentic Multimedia Content
- arxiv url: http://arxiv.org/abs/2512.15182v1
- Date: Wed, 17 Dec 2025 08:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.900855
- Title: Robust and Calibrated Detection of Authentic Multimedia Content
- Title(参考訳): 認証マルチメディアコンテンツのロバスト・校正検出
- Authors: Sarim Hashmi, Abdelrahman Elsayed, Mohammed Talha Alam, Samuele Poppi, Nils Lukas,
- Abstract要約: 本稿では,サンプルが本物かどうか,あるいはその真偽を確実に否定できるかどうかを判定する再合成フレームワークを提案する。
提案手法は,効率的な敵に対する敵の頑健性を実現する。
- 参考スコア(独自算出の注目度): 7.133668785479441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative models can synthesize highly realistic content, so-called deepfakes, that are already being misused at scale to undermine digital media authenticity. Current deepfake detection methods are unreliable for two reasons: (i) distinguishing inauthentic content post-hoc is often impossible (e.g., with memorized samples), leading to an unbounded false positive rate (FPR); and (ii) detection lacks robustness, as adversaries can adapt to known detectors with near-perfect accuracy using minimal computational resources. To address these limitations, we propose a resynthesis framework to determine if a sample is authentic or if its authenticity can be plausibly denied. We make two key contributions focusing on the high-precision, low-recall setting against efficient (i.e., compute-restricted) adversaries. First, we demonstrate that our calibrated resynthesis method is the most reliable approach for verifying authentic samples while maintaining controllable, low FPRs. Second, we show that our method achieves adversarial robustness against efficient adversaries, whereas prior methods are easily evaded under identical compute budgets. Our approach supports multiple modalities and leverages state-of-the-art inversion techniques.
- Abstract(参考訳): 生成モデルは、デジタルメディアの信頼性を損なうために、すでに大規模に誤用されている、いわゆるディープフェイク(deepfakes)と呼ばれる非常に現実的なコンテンツを合成することができる。
現在のディープフェイク検出方法は2つの理由により信頼性が低い。
(i)不純物とポストホックの区別は、しばしば不可能(例、記憶されたサンプル)であり、非有界偽陽性率(FPR)につながる。
敵は最小限の計算資源を用いて、ほぼ完全な精度で既知の検出器に適応できるため、検出は堅牢性に欠ける。
これらの制約に対処するために、サンプルが本物かどうか、あるいはその真偽を確実に否定できるかどうかを判定する再合成フレームワークを提案する。
我々は、効率的な(計算制限のある)敵に対する高精度で低リコール設定に焦点を当てた2つの重要なコントリビューションを行う。
まず,本手法は,制御可能な低FPRを維持しつつ,真正試料の検証を行う上で最も信頼性の高い手法であることを示す。
第2に,提案手法は効率のよい敵に対する敵の頑健性を実現するのに対して,先行手法は同一の計算予算で容易に回避可能であることを示す。
提案手法は複数のモダリティをサポートし,最先端のインバージョン技術を活用する。
関連論文リスト
- Open-World Deepfake Attribution via Confidence-Aware Asymmetric Learning [78.92934995292113]
本稿では,既知の偽造と新規な偽造の信頼のバランスをとる,信頼を意識した非対称学習(CAL)フレームワークを提案する。
CALは従来手法を一貫して上回り、既知の偽造と新しい偽造の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-12-14T12:31:28Z) - Fine-Grained DINO Tuning with Dual Supervision for Face Forgery Detection [18.62471724010391]
DINOv2のためのDeepFake Fine-Grained Adapter (DFF-Adapter)を提案する。
本手法では,軽量なマルチヘッドLORAモジュールをトランスブロックに組み込む。
提案手法は,現在の複雑な最先端手法に匹敵する,あるいは超越した精度で検出を行う。
論文 参考訳(メタデータ) (2025-11-15T08:57:21Z) - On the Adversarial Robustness of Learning-based Conformal Novelty Detection [10.58528988397402]
AdaDetect を用いた共形ノベルティ検出の対角的ロバスト性について検討した。
以上の結果から,高い検出力を維持しながらFDRを著しく増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-10-01T03:29:11Z) - Semantic Watermarking Reinvented: Enhancing Robustness and Generation Quality with Fourier Integrity [31.666430190864947]
我々はHermitian Symmetric Fourier Watermarking (SFW)と呼ばれる新しい埋め込み手法を提案する。
SFWはエルミート対称性を強制することによって周波数整合性を維持する。
我々は,収穫攻撃による意味的透かしの脆弱性を低減する中心認識型埋め込み戦略を導入する。
論文 参考訳(メタデータ) (2025-09-09T12:15:16Z) - Unmasking Synthetic Realities in Generative AI: A Comprehensive Review of Adversarially Robust Deepfake Detection Systems [4.359154048799454]
ディープフェイク拡散合成メディアは、デジタルセキュリティ、誤情報緩和、アイデンティティ保護に挑戦する。
本研究の体系的レビューでは, 再現性のある実装の透明性と検証を重視した, 最先端のディープフェイク検出手法の評価を行う。
1) 統計的異常や階層的特徴抽出を利用した完全合成メディアの検出,(2) 視覚的アーティファクトや時間的不整合といったマルチモーダルな手がかりを用いた実コンテンツ中の操作された領域の局在化。
論文 参考訳(メタデータ) (2025-07-24T22:05:52Z) - MIBP-Cert: Certified Training against Data Perturbations with Mixed-Integer Bilinear Programs [50.41998220099097]
トレーニング中のデータエラー、汚職、中毒攻撃は、現代のAIシステムの信頼性に大きな脅威をもたらす。
混合整数双線形プログラミング(MIBP)に基づく新しい認証手法MIBP-Certを紹介する。
摂動データや操作データを通じて到達可能なパラメータの集合を計算することで、可能なすべての結果を予測することができ、堅牢性を保証することができる。
論文 参考訳(メタデータ) (2024-12-13T14:56:39Z) - Adversarially Robust Deepfake Detection via Adversarial Feature Similarity Learning [0.0]
ディープフェイク技術は、デジタルコンテンツの信頼性を懸念し、効果的な検出方法の開発を必要としている。
敵は、検出モデルを騙して誤った出力を生成する、小さくて知覚できない摂動でディープフェイクビデオを操作できる。
本稿では,3つの基本的深い特徴学習パラダイムを統合したAFSL(Adversarial Feature similarity Learning)を紹介する。
論文 参考訳(メタデータ) (2024-02-06T11:35:05Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。