論文の概要: Holmes: Towards Effective and Harmless Model Ownership Verification to Personalized Large Vision Models via Decoupling Common Features
- arxiv url: http://arxiv.org/abs/2507.00724v1
- Date: Tue, 24 Jun 2025 15:40:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.63463
- Title: Holmes: Towards Effective and Harmless Model Ownership Verification to Personalized Large Vision Models via Decoupling Common Features
- Title(参考訳): ホームズ:共通機能を切り離して個人化された大規模ビジョンモデルに対する効果的で有害なモデルオーナーシップ検証を目指して
- Authors: Linghui Zhu, Yiming Li, Haiqin Weng, Yan Liu, Tianwei Zhang, Shu-Tao Xia, Zhi Wang,
- Abstract要約: 本稿では、類似の共通特徴を分離し、パーソナライズされたモデルに対する無害モデルオーナシップ検証手法を提案する。
最初の段階では、データセット固有の機能を中断しながら、犠牲者モデルの共通の特徴を保持するシャドウモデルを作成します。
その後、メタ分類器が訓練され、被害者のデータセット固有の特徴を含む不審なモデルを決定することで、盗まれたモデルを特定する。
- 参考スコア(独自算出の注目度): 54.63343151319368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large vision models achieve remarkable performance in various downstream tasks, primarily by personalizing pre-trained models through fine-tuning with private and valuable local data, which makes the personalized model a valuable intellectual property for its owner. Similar to the era of traditional DNNs, model stealing attacks also pose significant risks to these personalized models. However, in this paper, we reveal that most existing defense methods (developed for traditional DNNs), typically designed for models trained from scratch, either introduce additional security risks, are prone to misjudgment, or are even ineffective for fine-tuned models. To alleviate these problems, this paper proposes a harmless model ownership verification method for personalized models by decoupling similar common features. In general, our method consists of three main stages. In the first stage, we create shadow models that retain common features of the victim model while disrupting dataset-specific features. We represent the dataset-specific features of the victim model by the output differences between the shadow and victim models. After that, a meta-classifier is trained to identify stolen models by determining whether suspicious models contain the dataset-specific features of the victim. In the third stage, we conduct model ownership verification by hypothesis test to mitigate randomness and enhance robustness. Extensive experiments on benchmark datasets verify the effectiveness of the proposed method in detecting different types of model stealing simultaneously.
- Abstract(参考訳): 大規模な視覚モデルは、主に訓練済みのモデルのパーソナライズによって、プライベートで価値のあるローカルデータを微調整することで、様々な下流タスクにおいて顕著なパフォーマンスを達成する。
従来のDNNと同様、モデル盗難攻撃はパーソナライズされたモデルに重大なリスクをもたらす。
しかし,本稿では,既存の防衛手法(従来のDNNで開発された)のほとんどが,スクラッチから訓練したモデルのために設計されているか,追加のセキュリティリスクを課すか,誤った判断をしにくいか,あるいは微調整モデルに対して効果が低いかを明らかにする。
これらの問題を緩和するために,同種の共通特徴を分離してパーソナライズされたモデルに対する無害モデルオーナシップ検証手法を提案する。
一般に,本手法は3つの主要な段階から構成される。
最初の段階では、データセット固有の機能を中断しながら、犠牲者モデルの共通の特徴を保持するシャドウモデルを作成します。
シャドウモデルと被害者モデルとの出力差により、被害者モデルのデータセット固有の特徴を表現した。
その後、メタ分類器が訓練され、被害者のデータセット固有の特徴を含む不審なモデルを決定することで、盗まれたモデルを特定する。
第3段階では、仮説テストによるモデルオーナシップの検証を行い、ランダム性を緩和し、ロバスト性を高める。
ベンチマークデータセットの大規模な実験は、異なるタイプのモデル盗難を同時に検出する際の提案手法の有効性を検証する。
関連論文リスト
- Training Data Attribution: Was Your Model Secretly Trained On Data Created By Mine? [17.714589429503675]
テキスト・ツー・イメージ・モデルに対するインジェクションフリーなトレーニングデータ属性法を提案する。
我々のアプローチでは、異なるサンプルを発見できるアルゴリズムを開発し、それらを固有の透かしとして利用する。
実験により,疑わしいモデルのトレーニングデータのソースを特定する精度が80%以上であることが確認された。
論文 参考訳(メタデータ) (2024-09-24T06:23:43Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - GMValuator: Similarity-based Data Valuation for Generative Models [41.76259565672285]
生成モデル評価器(GMValuator, Generative Model Valuator, GMValuator, GMValuator)は、画像生成タスクにデータバリュエーションを提供するための、トレーニング不要で、モデルに依存しない最初のアプローチである。
GMValuatorは、その有効性を示すために、ベンチマークと高解像度データセットで広範囲に評価されている。
論文 参考訳(メタデータ) (2023-04-21T02:02:02Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。