論文の概要: Open-World Deepfake Attribution via Confidence-Aware Asymmetric Learning
- arxiv url: http://arxiv.org/abs/2512.12667v1
- Date: Sun, 14 Dec 2025 12:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.37246
- Title: Open-World Deepfake Attribution via Confidence-Aware Asymmetric Learning
- Title(参考訳): 信頼度を考慮した非対称学習によるオープンワールドディープフェイク属性
- Authors: Haiyang Zheng, Nan Pu, Wenjing Li, Teng Long, Nicu Sebe, Zhun Zhong,
- Abstract要約: 本稿では,既知の偽造と新規な偽造の信頼のバランスをとる,信頼を意識した非対称学習(CAL)フレームワークを提案する。
CALは従来手法を一貫して上回り、既知の偽造と新しい偽造の両方で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 78.92934995292113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of synthetic facial imagery has intensified the need for robust Open-World DeepFake Attribution (OW-DFA), which aims to attribute both known and unknown forgeries using labeled data for known types and unlabeled data containing a mixture of known and novel types. However, existing OW-DFA methods face two critical limitations: 1) A confidence skew that leads to unreliable pseudo-labels for novel forgeries, resulting in biased training. 2) An unrealistic assumption that the number of unknown forgery types is known *a priori*. To address these challenges, we propose a Confidence-Aware Asymmetric Learning (CAL) framework, which adaptively balances model confidence across known and novel forgery types. CAL mainly consists of two components: Confidence-Aware Consistency Regularization (CCR) and Asymmetric Confidence Reinforcement (ACR). CCR mitigates pseudo-label bias by dynamically scaling sample losses based on normalized confidence, gradually shifting the training focus from high- to low-confidence samples. ACR complements this by separately calibrating confidence for known and novel classes through selective learning on high-confidence samples, guided by their confidence gap. Together, CCR and ACR form a mutually reinforcing loop that significantly improves the model's OW-DFA performance. Moreover, we introduce a Dynamic Prototype Pruning (DPP) strategy that automatically estimates the number of novel forgery types in a coarse-to-fine manner, removing the need for unrealistic prior assumptions and enhancing the scalability of our methods to real-world OW-DFA scenarios. Extensive experiments on the standard OW-DFA benchmark and a newly extended benchmark incorporating advanced manipulations demonstrate that CAL consistently outperforms previous methods, achieving new state-of-the-art performance on both known and novel forgery attribution.
- Abstract(参考訳): 合成顔画像の拡散は、既知の型と未知の型の両方にラベル付きデータと、既知の型と新規型の混合を含む未ラベルデータを使用することを目的とし、堅牢なOpen-World DeepFake Attribution (OW-DFA)の必要性を増している。
しかし、既存のOW-DFAメソッドには2つの限界がある。
1)新規偽造者に対する信頼性の低い疑似ラベルを導く信頼スクリューは、バイアスのある訓練をもたらす。
2) 未知の偽型の数が *a priori* であることが非現実的な仮定である。
これらの課題に対処するため、我々は、既知の、新しいフォージェリータイプ間でモデルの信頼性を適応的にバランスさせる、信頼を意識した非対称学習(CAL)フレームワークを提案する。
CALは主に、CCR(Confidence-Aware Consistency Regularization)とACR(Asymmetric Confidence Reinforcement)の2つのコンポーネントで構成されている。
CCRは、正規化された信頼度に基づいてサンプル損失を動的にスケーリングすることで擬似ラベルバイアスを緩和し、トレーニング焦点を高信頼度から低信頼度に徐々にシフトさせる。
ACRは、信頼ギャップによって導かれる高信頼度サンプルの選択的学習を通じて、既知のクラスと新しいクラスの信頼を別々に調整することでこれを補完する。
CCRとACRは共に相互強化ループを形成し、モデルのOW-DFA性能を大幅に向上させる。
さらに,非現実的な事前仮定の必要性を排除し,実際のOW-DFAシナリオへのメソッドのスケーラビリティを向上する,動的プロトタイプ・プルーニング(DPP)戦略を導入する。
標準的なOW-DFAベンチマークと、先進的な操作を取り入れた新たな拡張ベンチマークに関する広範な実験により、CALは従来手法よりも一貫して優れており、既知の偽造と新しい偽造の属性の両方において、新しい最先端のパフォーマンスを達成することが示されている。
関連論文リスト
- Mind the Generation Process: Fine-Grained Confidence Estimation During LLM Generation [63.49409574310576]
大規模言語モデル(LLM)は自信過剰を示し、信頼度の高いスコアを誤った予測に割り当てる。
本研究では,テキスト生成中に高精度できめ細かな信頼スコアを提供する信頼度推定手法であるFineCEを紹介する。
論文で使用されたコードとすべてのベースラインはGitHubで公開されている。
論文 参考訳(メタデータ) (2025-08-16T13:29:35Z) - Learning from Similarity-Confidence and Confidence-Difference [0.07646713951724009]
複数の視点から補完的な弱監督信号を利用する新しい弱監視学習(WSL)フレームワークを提案する。
具体的には,2種類の弱いラベルを統合する手法であるSconfConfDiff Classificationを紹介する。
両推定器が推定誤差境界に対して最適収束率を達成することを証明した。
論文 参考訳(メタデータ) (2025-08-07T07:42:59Z) - A Context-Aware Dual-Metric Framework for Confidence Estimation in Large Language Models [6.62851757612838]
大規模言語モデル(LLM)に対する現在の信頼度推定法は,応答と文脈情報の関連性を無視する。
本稿では,2つの新しい指標を用いた信頼度推定のためのコンテキスト忠実度と一貫性を統合したCRUXを提案する。
3つのベンチマークデータセットに対する実験は、CRUXの有効性を示し、既存のベースラインよりも高いAUROCを達成した。
論文 参考訳(メタデータ) (2025-08-01T12:58:34Z) - Reinforcement Learning for Better Verbalized Confidence in Long-Form Generation [27.811765400370838]
本稿では,Long-form Verbalized Confidence (Long-form Verbalized Confidence) を提案する。
具体的には、強化学習(RL)を用いてLLMを訓練し、各生成された文に数値信頼度スコアを付加する。
実験の結果,RL学習モデルによりキャリブレーションの精度が向上し,領域全体にわたって強固に一般化できることがわかった。
論文 参考訳(メタデータ) (2025-05-29T18:05:20Z) - Network Inversion for Generating Confidently Classified Counterfeits [11.599035626374409]
視覚分類において、自信のある予測をもたらす入力を生成することは、モデルの振る舞いと信頼性を理解するための鍵となる。
我々はネットワーク・インバージョン・テクニックを拡張してCCC(Confidently Classified Counterfeits)を生成する。
CCCは信頼性に関するモデル中心の視点を提供し、モデルが完全に合成されたアウト・オブ・ディストリビューション・インプットに高い信頼を割り当てることを明らかにする。
論文 参考訳(メタデータ) (2025-03-26T03:26:49Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。