論文の概要: Real-Aware Residual Model Merging for Deepfake Detection
- arxiv url: http://arxiv.org/abs/2509.24367v1
- Date: Mon, 29 Sep 2025 07:10:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.80667
- Title: Real-Aware Residual Model Merging for Deepfake Detection
- Title(参考訳): ディープフェイク検出のための実時間残差モデルマージ
- Authors: Jinhee Park, Guisik Kim, Choongsang Cho, Junseok Kwon,
- Abstract要約: ディープフェイクジェネレータは急速に進化し、徹底的なデータ収集と反復的な再訓練が不可能になる。
本稿では,Real-Aware Residual Model Merging (R$2$M)を提案する。
R$2$M はタスクベクトルの低ランク因数分解を通じて共有リアル成分を推定し、各専門家をリアル整列部分とフェイク残基に分解し、階層的なランク切り込みで残基を分解し、タスク毎のノルムマッチングでそれらを集約する。
- 参考スコア(独自算出の注目度): 29.454462278073063
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deepfake generators evolve quickly, making exhaustive data collection and repeated retraining impractical. We argue that model merging is a natural fit for deepfake detection: unlike generic multi-task settings with disjoint labels, deepfake specialists share the same binary decision and differ in generator-specific artifacts. Empirically, we show that simple weight averaging preserves Real representations while attenuating Fake-specific cues. Building upon these findings, we propose Real-aware Residual Model Merging (R$^2$M), a training-free parameter-space merging framework. R$^2$M estimates a shared Real component via a low-rank factorization of task vectors, decomposes each specialist into a Real-aligned part and a Fake residual, denoises residuals with layerwise rank truncation, and aggregates them with per-task norm matching to prevent any single generator from dominating. A concise rationale explains why a simple head suffices: the Real component induces a common separation direction in feature space, while truncated residuals contribute only minor off-axis variations. Across in-distribution, cross-dataset, and unseen-dataset, R$^2$M outperforms joint training and other merging baselines. Importantly, R$^2$M is also composable: when a new forgery family appears, we fine-tune one specialist and re-merge, eliminating the need for retraining.
- Abstract(参考訳): ディープフェイクジェネレータは急速に進化し、徹底的なデータ収集と反復的な再訓練が不可能になる。
我々は、モデルマージがディープフェイク検出に自然に適していると主張する。ディスジョイントラベルを持つ一般的なマルチタスク設定とは異なり、ディープフェイクの専門家は同じバイナリ決定を共有し、ジェネレータ固有のアーティファクトが異なる。
実験により,単純なウェイト平均化は実数表現を保ちながら,フェイク固有のキューを減衰させることを示した。
これらの知見に基づいて、トレーニング不要なパラメータ空間マージフレームワークであるReal-Aware Residual Model Merging (R$^2$M)を提案する。
R$^2$M はタスクベクトルの低ランク因数分解によって共有リアルコンポーネントを推定し、各専門家をリアル整列部分とフェイク残基に分解し、階層的なランク切り込みで残基を分解し、タスク毎のノルムマッチングでそれらを集約して、どのジェネレータも支配できないようにする。
実成分は特徴空間において共通の分離方向を誘導し、切り離された残差は小さなオフ軸変化にのみ寄与する。
R$^2$Mは、分散、クロスデータセット、および目に見えないデータセット全体で、ジョイントトレーニングやその他のマージベースラインを上回っている。
重要なことに、R$^2$Mは構成可能であり、新しいフォージェリーファミリーが出現すると、専門家を1人選び、再訓練の必要性を排除して再統合する。
関連論文リスト
- ResAD++: Towards Class Agnostic Anomaly Detection via Residual Feature Learning [52.11294707895649]
本稿では,クラス非依存型異常検出(AD)の問題点について検討する。
目的は、ターゲットデータの再トレーニングや微調整をせずに、異なるドメインから様々な新しいクラスの異常を一般化して検出できる、クラスに依存しないADモデルをトレーニングすることである。
8つの実世界のADデータセットに関する総合的な実験は、ResAD++が新しいクラスで直接使用されると、素晴らしいAD結果が得られることを示した。
論文 参考訳(メタデータ) (2025-09-28T08:41:05Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - Sample-Efficient Linear Representation Learning from Non-IID Non-Isotropic Data [4.971690889257356]
コリンズとナイアーとヴァスワニによって提案された交互最小化・退化スキームの適応について紹介する。
iidにおいてもバニラ変動最小化降下は破滅的に失敗するが, 軽度に非等方性データは得られない。
我々の分析は、事前の作業を統一し、一般化し、幅広いアプリケーションに柔軟なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-08-08T17:56:20Z) - Recovery Guarantees for Distributed-OMP [8.393317912360564]
高次元スパース線形回帰のための分散スキームについて検討する。
分散OMPスキームは, 分散OMP方式により, マシン単位の線形通信による回帰ベクトルの支持を回復し, 空間的・対数的次元で表す。
シミュレーションにより,分散OMP方式はより計算集約的な手法と競合することを示した。
論文 参考訳(メタデータ) (2022-09-15T11:43:33Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Overcoming Catastrophic Forgetting with Gaussian Mixture Replay [79.0660895390689]
ガウス混合モデル(GMM)に基づく連続学習(CL)のためのリハーサルベースアプローチを提案する。
過去のタスクからサンプルを生成し,現在のトレーニングデータと統合することで,破滅的忘れ(cf)を緩和する。
複数の画像データセットでGMRを評価し,クラス別サブタスクに分割する。
論文 参考訳(メタデータ) (2021-04-19T11:41:34Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。