論文の概要: Model Unmerging: Making Your Models Unmergeable for Secure Model Sharing
- arxiv url: http://arxiv.org/abs/2509.01548v1
- Date: Mon, 01 Sep 2025 15:24:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.747458
- Title: Model Unmerging: Making Your Models Unmergeable for Secure Model Sharing
- Title(参考訳): モデルアンマージ: セキュアなモデル共有のためにモデルをアンマージ可能にする
- Authors: Zihao Wang, Enneng Yang, Lu Yin, Shiwei Liu, Li Shen,
- Abstract要約: 無許可のマージは、開発者の権利を侵害し、機密個人情報を漏洩するリスクを負う可能性がある。
本稿では,モデルパラメータを乱してマージ不能にするアクティブプロテクション機構であるMergeLockを提案する。
MergeLockは、保護されたモデルに関わる場合、マージされたモデルの性能を95%以上低下させることができる。
- 参考スコア(独自算出の注目度): 47.204542615541364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model merging leverages multiple finetuned expert models to construct a multi-task model with low cost, and is gaining increasing attention. However, as a growing number of finetuned models become publicly available, concerns about the safety of model merging have emerged. Unauthorized merging may infringe on developers' rights and risk leaking sensitive personal information. Most existing methods focus on detecting whether a merged model originates from a specific source model, but fail to effectively prevent illegal merging. In this paper, we propose MergeLock, an active protection mechanism that disrupts model parameters to render them unmergeable, thereby directly preventing unauthorized model merging. Specifically, leveraging the inherent symmetry of the attention mechanism in Transformer-based models, we randomly sample two pairs of invertible matrices and apply them to the Query-Key (QK) and Value-Output (VO) branches. This transformation keeps the model's output unchanged while pushing it away from the shared parameter space of other finetuned models. Extensive experiments across both vision and language tasks demonstrate that MergeLock can degrade the performance of merged models by over 95% when a protected model is involved in most cases, demonstrating its effectiveness. Moreover, we further demonstrate that merged models protected by MergeLock cannot be effectively recovered using low-cost restoration methods, further enhancing robustness against unauthorized merging. The code is available at https://github.com/hetailang/Merge-Lock.
- Abstract(参考訳): モデルマージは、複数の微調整されたエキスパートモデルを活用して、低コストでマルチタスクモデルを構築することで、注目を集めている。
しかし、細分化モデルの普及に伴い、モデルマージの安全性への懸念が高まっている。
無許可のマージは、開発者の権利を侵害し、機密個人情報を漏洩するリスクを負う可能性がある。
既存のほとんどの方法は、マージされたモデルが特定のソースモデルに由来するかどうかを検出することに重点を置いているが、違法なマージを効果的に防ぐことはできない。
本稿では,モデルパラメータを乱してマージ不能にするアクティブプロテクション機構であるMergeLockを提案する。
具体的には、トランスフォーマーモデルにおける注意機構の固有対称性を利用して、2組の可逆行列をランダムにサンプリングし、クエリキー(QK)および値出力(VO)ブランチに適用する。
この変換は、他の微調整されたモデルの共有パラメータ空間からそれを押し離しながら、モデルの出力を一定に保ちます。
ビジョンと言語タスクの両方にわたる大規模な実験により、MergeLockは、ほとんどのケースで保護されたモデルが関与している場合、マージモデルの性能を95%以上低下させることができることを示した。
さらに,MergeLockで保護されたマージモデルでは,低コストの修復手法では効果的に復元できないこと,また,不正なマージに対する堅牢性を高めることが実証された。
コードはhttps://github.com/hetailang/Merge-Lock.comで公開されている。
関連論文リスト
- Merge Hijacking: Backdoor Attacks to Model Merging of Large Language Models [48.36985844329255]
LLM(Large Language Models)のモデルマージは、様々なタスクで微調整された異なるモデルのパラメータを直接フューズする。
オープンソースプラットフォームで利用可能なモデルに潜在的な脆弱性があるため、モデルマージはバックドア攻撃の影響を受けやすい。
LLMにマージされた最初のバックドア攻撃モデルであるMerge Hijackingを提案する。
論文 参考訳(メタデータ) (2025-05-29T15:37:23Z) - Why Do More Experts Fail? A Theoretical Analysis of Model Merging [51.18155031364046]
モデルマージは、複数のエキスパートモデルを単一のマルチタスクモデルに組み合わせることで、ストレージと計算資源を劇的に削減する。
最近のモデルマージ手法は有望な結果を示しているが、マージモデルの増加に伴い性能向上の維持に苦慮している。
限定効用パラメータ空間は、マージを成功させることのできるモデルの数に厳密な制約を課すことを示す。
論文 参考訳(メタデータ) (2025-05-27T14:10:46Z) - Disrupting Model Merging: A Parameter-Level Defense Without Sacrificing Accuracy [0.0]
モデルマージ(英: Model merging)は、複数の微調整されたモデルを、追加のトレーニングなしで単一のモデルに結合するテクニックである。
モデル透かしやフィンガープリントのような既存の方法は、後部視におけるマージのみを検出することができる。
本稿では,モデルマージに対する最初の積極的な防御法を提案する。
論文 参考訳(メタデータ) (2025-03-08T06:08:47Z) - Merger-as-a-Stealer: Stealing Targeted PII from Aligned LLMs with Model Merging [49.270050440553575]
この攻撃を実現するための2段階フレームワークである textttMerger-as-a-Stealer を提案する。
まず、攻撃者は悪意のあるモデルを微調整し、PII関連のクエリに応答するよう強制する。
次に、攻撃者は直接PII関連クエリをマージしたモデルに入力し、ターゲットPIIを抽出する。
論文 参考訳(メタデータ) (2025-02-22T05:34:53Z) - MergePrint: Merge-Resistant Fingerprints for Robust Black-box Ownership Verification of Large Language Models [1.9249287163937978]
モデルマージを継続することのできる頑健な指紋を埋め込むための新しいフィンガープリント手法であるMergePrintを提案する。
MergePrintはブラックボックスのオーナシップの検証を可能にする。モデルが特定の指紋入力に対してターゲット出力を生成するかどうかのみを所有者が確認する必要がある。
論文 参考訳(メタデータ) (2024-10-11T08:00:49Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。