論文の概要: Defending Unauthorized Model Merging via Dual-Stage Weight Protection
- arxiv url: http://arxiv.org/abs/2511.11851v1
- Date: Fri, 14 Nov 2025 20:16:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.343783
- Title: Defending Unauthorized Model Merging via Dual-Stage Weight Protection
- Title(参考訳): デュアルステージ重み保護による無許可モデルマージの回避
- Authors: Wei-Jia Chen, Min-Yen Tsai, Cheng-Yi Lee, Chia-Mu Yu,
- Abstract要約: フリーライダーは、微調整されたモデルを認可なしで新しいマルチキャパビリティモデルに組み合わせる。
MergeGuardは、タスクの忠実さを維持しながら、マージ互換性を損なうフレームワークである。
MergeGuardはマージモデルの精度を最大90%削減し、保護モデルの性能損失は1.5%以下であることを示す。
- 参考スコア(独自算出の注目度): 7.855764642324112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid proliferation of pretrained models and open repositories has made model merging a convenient yet risky practice, allowing free-riders to combine fine-tuned models into a new multi-capability model without authorization. Such unauthorized model merging not only violates intellectual property rights but also undermines model ownership and accountability. To address this issue, we present MergeGuard, a proactive dual-stage weight protection framework that disrupts merging compatibility while maintaining task fidelity. In the first stage, we redistribute task-relevant information across layers via L2-regularized optimization, ensuring that important gradients are evenly dispersed. In the second stage, we inject structured perturbations to misalign task subspaces, breaking curvature compatibility in the loss landscape. Together, these stages reshape the model's parameter geometry such that merged models collapse into destructive interference while the protected model remains fully functional. Extensive experiments on both vision (ViT-L-14) and language (Llama2, Gemma2, Mistral) models demonstrate that MergeGuard reduces merged model accuracy by up to 90% with less than 1.5% performance loss on the protected model.
- Abstract(参考訳): 事前訓練されたモデルとオープンリポジトリの急速な普及により、モデルマージは便利だがリスクの高いプラクティスとなり、フリーライダーは微調整されたモデルを許可なく新しいマルチキャパビリティモデルに組み合わせることができるようになった。
このような無許可のモデル統合は知的財産権に反するだけでなく、モデルの所有と説明責任を損なう。
この問題に対処するため、タスクの忠実さを維持しながら、マージ互換性を損なうプロアクティブなデュアルステージの重み保護フレームワークであるMergeGuardを紹介します。
第1段階では、L2正規化最適化により、レイヤ間のタスク関連情報を再分配し、重要な勾配が均等に分散されることを保証する。
第2段階では、構造的摂動を誤ったタスク部分空間に注入し、損失ランドスケープにおける曲率の整合性を損なう。
これらの段階が組み合わさってモデルのパラメーターを再構成し、統合されたモデルが破壊的な干渉に崩壊し、保護されたモデルは完全に機能する。
視覚(ViT-L-14)と言語(Llama2, Gemma2, Mistral)の両方に関する大規模な実験により、MergeGuardは、保護されたモデルの性能損失が1.5%未満でマージされたモデルの精度を最大90%削減することを示した。
関連論文リスト
- Do Not Merge My Model! Safeguarding Open-Source LLMs Against Unauthorized Model Merging [42.917732897026276]
本稿では,無許可のマージを積極的に防止するプラグイン・アンド・プレイ・ディフェンスであるMergeBarrierを提案する。
実験により、MergeBarrierは、無視できる精度の損失を伴うモデルのマージ盗難を効果的に防いでいることが示された。
論文 参考訳(メタデータ) (2025-11-13T09:45:47Z) - Model Unmerging: Making Your Models Unmergeable for Secure Model Sharing [47.204542615541364]
無許可のマージは、開発者の権利を侵害し、機密個人情報を漏洩するリスクを負う可能性がある。
本稿では,モデルパラメータを乱してマージ不能にするアクティブプロテクション機構であるMergeLockを提案する。
MergeLockは、保護されたモデルに関わる場合、マージされたモデルの性能を95%以上低下させることができる。
論文 参考訳(メタデータ) (2025-09-01T15:24:41Z) - Modular Delta Merging with Orthogonal Constraints: A Scalable Framework for Continual and Reversible Model Composition [0.0]
既存のモデルマージと継続的学習へのアプローチは、しばしばタスクの干渉、破滅的な忘れ込み、あるいは可逆性の欠如に悩まされる。
本稿では, 拡張性, 干渉フリー, 微調整モデルの構成が可能な新しいフレームワークである Orthogonal Constraints (MDM-OC) を用いた Modular Delta Merging を提案する。
論文 参考訳(メタデータ) (2025-07-28T17:08:49Z) - Disrupting Model Merging: A Parameter-Level Defense Without Sacrificing Accuracy [0.0]
モデルマージ(英: Model merging)は、複数の微調整されたモデルを、追加のトレーニングなしで単一のモデルに結合するテクニックである。
モデル透かしやフィンガープリントのような既存の方法は、後部視におけるマージのみを検出することができる。
本稿では,モデルマージに対する最初の積極的な防御法を提案する。
論文 参考訳(メタデータ) (2025-03-08T06:08:47Z) - Multi-Level Collaboration in Model Merging [56.31088116526825]
本稿では,モデルマージとモデルアンサンブルの本質的な関係について考察する。
これまでの制限が満たされていない場合でも、モデルのマージによって、アンサンブルと同じような、ほぼ同一かつ優れたパフォーマンスを達成する方法がまだ存在することが分かっています。
論文 参考訳(メタデータ) (2025-03-03T07:45:04Z) - Merger-as-a-Stealer: Stealing Targeted PII from Aligned LLMs with Model Merging [49.270050440553575]
この攻撃を実現するための2段階フレームワークである textttMerger-as-a-Stealer を提案する。
まず、攻撃者は悪意のあるモデルを微調整し、PII関連のクエリに応答するよう強制する。
次に、攻撃者は直接PII関連クエリをマージしたモデルに入力し、ターゲットPIIを抽出する。
論文 参考訳(メタデータ) (2025-02-22T05:34:53Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。