論文の概要: Meta-FC: Meta-Learning with Feature Consistency for Robust and Generalizable Watermarking
- arxiv url: http://arxiv.org/abs/2602.21849v1
- Date: Wed, 25 Feb 2026 12:26:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.83076
- Title: Meta-FC: Meta-Learning with Feature Consistency for Robust and Generalizable Watermarking
- Title(参考訳): Meta-FC:ロバストで一般化可能な透かしのための特徴一貫性を備えたメタラーニング
- Authors: Yuheng Li, Weitong Chen, Chengcheng Zhu, Jiale Zhang, Chunpeng Ge, Di Wu, Guodong Long,
- Abstract要約: 本稿では,アンダーラインテキストbfmeta学習によるロバストネスと一般化を向上する新たなトレーニング戦略を提案する。
ノイズプールから複数の歪みをランダムにサンプリングし,メタ学習タスクを構築する。
メタラーニングにより、モデルは様々な種類の歪みに対して安定した活性化を示すニューロンを特定し、活用することが奨励される。
- 参考スコア(独自算出の注目度): 45.519305832092705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based watermarking has made remarkable progress in recent years. To achieve robustness against various distortions, current methods commonly adopt a training strategy where a \underline{\textbf{s}}ingle \underline{\textbf{r}}andom \underline{\textbf{d}}istortion (SRD) is chosen as the noise layer in each training batch. However, the SRD strategy treats distortions independently within each batch, neglecting the inherent relationships among different types of distortions and causing optimization conflicts across batches. As a result, the robustness and generalizability of the watermarking model are limited. To address this issue, we propose a novel training strategy that enhances robustness and generalization via \underline{\textbf{meta}}-learning with \underline{\textbf{f}}eature \underline{\textbf{c}}onsistency (Meta-FC). Specifically, we randomly sample multiple distortions from the noise pool to construct a meta-training task, while holding out one distortion as a simulated ``unknown'' distortion for the meta-testing phase. Through meta-learning, the model is encouraged to identify and utilize neurons that exhibit stable activations across different types of distortions, mitigating the optimization conflicts caused by the random sampling of diverse distortions in each batch. To further promote the transformation of stable activations into distortion-invariant representations, we introduce a feature consistency loss that constrains the decoded features of the same image subjected to different distortions to remain consistent. Extensive experiments demonstrate that, compared to the SRD training strategy, Meta-FC improves the robustness and generalization of various watermarking models by an average of 1.59\%, 4.71\%, and 2.38\% under high-intensity, combined, and unknown distortions.
- Abstract(参考訳): 深層学習に基づく透かしは近年顕著な進歩を遂げている。
様々な歪みに対するロバスト性を達成するため、現在の手法では、トレーニングバッチ毎のノイズ層として、 \underline{\textbf{s}}ingle \underline{\textb{r}}andom \underline{\textbf{d}}istortion (SRD)を選択したトレーニング戦略が一般的である。
しかし、SRD戦略は各バッチ内で歪みを独立に扱い、異なる種類の歪み間の固有の関係を無視し、バッチ間で最適化の衝突を引き起こす。
その結果,透かしモデルの堅牢性と一般化性は限定的である。
この問題に対処するため、我々は \underline{\textbf{meta}}-learning with \underline{\textbf{f}}eature \underline{\textbf{c}}onsistency (Meta-FC) による堅牢性と一般化を高める新しいトレーニング戦略を提案する。
具体的には、ノイズプールからの複数の歪みをランダムにサンプリングし、メタトレーニングタスクを構築し、メタテストフェーズの「未知」歪みを模擬した「未知」歪みとして1つの歪みを出力する。
メタラーニングにより、モデルは様々な種類の歪みに対して安定した活性化を示すニューロンを特定し、利用することが奨励され、各バッチにおける多様な歪みのランダムサンプリングによる最適化競合を緩和する。
安定なアクティベーションの歪み不変表現への変換をさらに促進するために、異なる歪みを受ける同じ画像の復号化特徴を制約する特徴整合損失を導入する。
総合的な実験により、メタFCはSRDトレーニング戦略と比較して、様々な透かしモデルの堅牢性と一般化を、高強度で平均1.59\%、4.71\%、および2.38\%で改善することを示した。
関連論文リスト
- Deep Leakage with Generative Flow Matching Denoiser [54.05993847488204]
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
論文 参考訳(メタデータ) (2026-01-21T14:51:01Z) - UMCL: Unimodal-generated Multimodal Contrastive Learning for Cross-compression-rate Deepfake Detection [37.37926854174864]
ディープフェイク検出では、ソーシャルメディアプラットフォームが使用する様々な圧縮の程度が、モデルの一般化と信頼性に重大な課題をもたらす。
クロスモーダルレート深度検出のための一様生成マルチモーダルコントラスト学習フレームワークを提案する。
提案手法は, 各種圧縮速度および操作タイプにまたがる優れた性能を実現し, 堅牢なディープフェイク検出のための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2025-11-24T10:56:22Z) - An ICTM-RMSAV Framework for Bias-Field Aware Image Segmentation under Poisson and Multiplicative Noise [3.2268442113108633]
具体的には,I-分節項と適応的全変分法(TV)正則化器から構成される。
グレーレベルインジケータから導出される空間適応重みは、異なる強度の領域間で異なる拡散を誘導する。
合成および実世界の画像における強度不均一性および多種多様なノイズタイプを用いた実験により,提案モデルが競合する手法と比較して精度とロバスト性を向上することを示した。
論文 参考訳(メタデータ) (2025-11-12T05:14:33Z) - OSCAR: Orthogonal Stochastic Control for Alignment-Respecting Diversity in Flow Matching [14.664226708184676]
フローベースのテキスト・ツー・イメージモデルは決定論的軌跡に従っており、ユーザーは様々なモードを見つけるために繰り返しサンプルを採取せざるを得ない。
本稿では,フロー自体を多様性に配慮した,トレーニング不要な推論時間制御機構を提案する。
論文 参考訳(メタデータ) (2025-10-10T07:07:19Z) - Flow-GRPO: Training Flow Matching Models via Online RL [80.62659379624867]
本稿では,オンライン政策強化学習をフローマッチングモデルに統合する最初の方法であるFlow-GRPOを提案する。
提案手法では,(1)決定論的正規微分方程式を同値な微分方程式に変換するODE-to-SDE変換と,(2)推論ステップの数を維持しながらトレーニングの段階を短縮するDenoising Reduction戦略の2つの主要な戦略を用いる。
論文 参考訳(メタデータ) (2025-05-08T17:58:45Z) - VCT: Training Consistency Models with Variational Noise Coupling [21.978942601947026]
変分一貫性トレーニング(VCT)は、様々な前方カーネルと互換性のあるフレキシブルで効果的なフレームワークである。
鍵となる革新は、変分オートエンコーダにインスパイアされた学習されたノイズデータ結合方式である。
CIFAR-10の非蒸留CT手法の中で,本手法はベースラインを超越し,最先端のFIDを実現し,ImageNet 64 x 64のSoTA性能を2段階のサンプリングステップで比較した。
論文 参考訳(メタデータ) (2025-02-25T13:38:04Z) - Scaling Multimodal Pre-Training via Cross-Modality Gradient
Harmonization [68.49738668084693]
自己教師付き事前学習は、最近、大規模マルチモーダルデータで成功している。
クロスモダリティアライメント(CMA)は、弱くノイズの多い監視である。
CMAは、モダリティ間の衝突や偏見を引き起こす可能性がある。
論文 参考訳(メタデータ) (2022-11-03T18:12:32Z) - Deep Learning-Based Defect Classification and Detection in SEM Images [1.9206693386750882]
特に、異なるResNet、VGGNetアーキテクチャをバックボーンとして使用するRetinaNetモデルをトレーニングする。
そこで本研究では,異なるモデルからの出力予測を組み合わせることで,欠陥の分類と検出に優れた性能を実現するための選好に基づくアンサンブル戦略を提案する。
論文 参考訳(メタデータ) (2022-06-20T16:34:11Z) - Learning to Generate Noise for Multi-Attack Robustness [126.23656251512762]
対人学習は、対人摂動に対する既存の方法の感受性を回避できる手法の1つとして登場した。
安全クリティカルなアプリケーションでは、攻撃者は様々な敵を採用してシステムを騙すことができるため、これらの手法は極端に便利である。
本稿では,複数種類の攻撃に対するモデルの堅牢性を改善するために,ノイズ発生を明示的に学習するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-22T10:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。