論文の概要: Defense against Unauthorized Distillation in Image Restoration via Feature Space Perturbation
- arxiv url: http://arxiv.org/abs/2510.08925v1
- Date: Fri, 10 Oct 2025 02:14:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.011092
- Title: Defense against Unauthorized Distillation in Image Restoration via Feature Space Perturbation
- Title(参考訳): 特徴空間摂動による画像修復における無許可蒸留対策
- Authors: Han Hu, Zhuoran Zheng, Chen Lyu,
- Abstract要約: 適応特異値摂動(Adaptive Singular Value Perturbation、ASVP)は、画像復元モデルに適したランタイムディフェンスである。
これはトップク特異値を増幅し、構造化された高周波摂動を注入し、蒸留に必要なアライメントを乱す。
実験の結果、ASVPは生徒のPSNRを最大4dB減らし、SSIMを60-75%減らし、教師のパフォーマンスには何の影響も与えないことがわかった。
- 参考スコア(独自算出の注目度): 15.362169797479146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge distillation (KD) attacks pose a significant threat to deep model intellectual property by enabling adversaries to train student networks using a teacher model's outputs. While recent defenses in image classification have successfully disrupted KD by perturbing output probabilities, extending these methods to image restoration is difficult. Unlike classification, restoration is a generative task with continuous, high-dimensional outputs that depend on spatial coherence and fine details. Minor perturbations are often insufficient, as students can still learn the underlying mapping.To address this, we propose Adaptive Singular Value Perturbation (ASVP), a runtime defense tailored for image restoration models. ASVP operates on internal feature maps of the teacher using singular value decomposition (SVD). It amplifies the topk singular values to inject structured, high-frequency perturbations, disrupting the alignment needed for distillation. This hinders student learning while preserving the teacher's output quality.We evaluate ASVP across five image restoration tasks: super-resolution, low-light enhancement, underwater enhancement, dehazing, and deraining. Experiments show ASVP reduces student PSNR by up to 4 dB and SSIM by 60-75%, with negligible impact on the teacher's performance. Compared to prior methods, ASVP offers a stronger and more consistent defense.Our approach provides a practical solution to protect open-source restoration models from unauthorized knowledge distillation.
- Abstract(参考訳): 知識蒸留(KD)攻撃は、教師モデルの出力を用いて、敵対者が学生ネットワークを訓練できるようにすることによって、知的財産の深いモデルに重大な脅威をもたらす。
画像分類における最近の防御は、出力確率の摂動によってKDを乱すことに成功したが、これらの手法を画像復元に拡張することは困難である。
分類とは異なり、復元は空間コヒーレンスと細部に依存する連続的で高次元の出力を持つ生成タスクである。
画像復元モデルに適したアダプティブ特異値摂動(ASVP)を提案する。
ASVPは特異値分解(SVD)を使用して教師の内部特徴写像を操作する。
これはトップク特異値を増幅し、構造化された高周波摂動を注入し、蒸留に必要なアライメントを乱す。
これにより,教師の出力品質を保ちながら生徒の学習を阻害し,超解像,低照度向上,水中強化,脱ハジング,デラミニングの5つのイメージ復元タスクにおいてASVPを評価した。
実験の結果、ASVPは生徒のPSNRを最大4dB減らし、SSIMを60-75%減らし、教師のパフォーマンスには何の影響も与えないことがわかった。
従来の手法と比較して、ASVPはより強力で一貫性のある防御を提供しており、我々のアプローチは、オープンソースの復元モデルを無許可の知識蒸留から保護するための実践的な解決策を提供する。
関連論文リスト
- Active Adversarial Noise Suppression for Image Forgery Localization [56.98050814363447]
本稿では、敵騒音の攻撃効果を抑制するために、防御的摂動を発生させる敵騒音抑制モジュール(ANSM)を提案する。
我々の知る限りでは、画像フォージェリローカライゼーションタスクにおける敵対的防御の報告としてはこれが初めてである。
論文 参考訳(メタデータ) (2025-06-15T14:53:27Z) - Knowledge Distillation for Image Restoration : Simultaneous Learning from Degraded and Clean Images [0.0]
画像復元作業におけるモデル圧縮に適した同時学習知識蒸留(SLKD)フレームワークを提案する。
SLKDは2つの異なる学習戦略:分解除去学習(DRL)と画像再構成学習(IRL)を同時に採用している。
5つのデータセットと3つのタスクにわたる実験結果から、SLKDは強力な画像復元性能を維持しながら、FLOPとパラメータの大幅な削減を実現していることが示された。
論文 参考訳(メタデータ) (2025-01-16T03:35:23Z) - Dynamic Contrastive Knowledge Distillation for Efficient Image Restoration [17.27061613884289]
画像復元のための動的コントラスト知識蒸留(DCKD)フレームワークを提案する。
具体的には,学生の学習状態を知覚するために,動的コントラスト正規化を導入する。
また,教師モデルと学生モデルの画素レベルのカテゴリ分布を抽出・調整する分布マッピングモジュールを提案する。
論文 参考訳(メタデータ) (2024-12-12T05:01:17Z) - Rethinking and Defending Protective Perturbation in Personalized Diffusion Models [21.30373461975769]
パーソナライズされた拡散モデル(PDM)の微調整過程について,ショートカット学習のレンズを用いて検討した。
PDMは小さな逆境の摂動に影響を受けやすいため、破損したデータセットを微調整すると著しく劣化する。
本稿では,データ浄化と対照的なデカップリング学習を含むシステム防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-27T07:14:14Z) - Adversarial Sparse Teacher: Defense Against Distillation-Based Model Stealing Attacks Using Adversarial Examples [2.0257616108612373]
対人スパース教師 (AST) は蒸留モデル盗難攻撃に対する堅牢な防御方法である。
提案手法は, 逆例を用いて教師モデルを訓練し, スパースロジット応答を生成し, 出力分布のエントロピーを増大させる。
論文 参考訳(メタデータ) (2024-03-08T09:43:27Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。