論文の概要: Staining and locking computer vision models without retraining
- arxiv url: http://arxiv.org/abs/2507.22000v1
- Date: Tue, 29 Jul 2025 16:47:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.756891
- Title: Staining and locking computer vision models without retraining
- Title(参考訳): コンピュータビジョンモデルの再トレーニングなしでの保持とロック
- Authors: Oliver J. Sutton, Qinghua Zhou, George Leete, Alexander N. Gorban, Ivan Y. Tyukin,
- Abstract要約: コンピュータビジョンモデルを染色・施錠する新しい手法を提案する。
Stainingはシークレットな振る舞いをモデルに埋め込む。
Lockingは、秘密のトリガーが入力イメージに挿入されない限り、モデルを使用不能にすることを目的としている。
- 参考スコア(独自算出の注目度): 43.60804876202157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce new methods of staining and locking computer vision models, to protect their owners' intellectual property. Staining, also known as watermarking, embeds secret behaviour into a model which can later be used to identify it, while locking aims to make a model unusable unless a secret trigger is inserted into input images. Unlike existing methods, our algorithms can be used to stain and lock pre-trained models without requiring fine-tuning or retraining, and come with provable, computable guarantees bounding their worst-case false positive rates. The stain and lock are implemented by directly modifying a small number of the model's weights and have minimal impact on the (unlocked) model's performance. Locked models are unlocked by inserting a small `trigger patch' into the corner of the input image. We present experimental results showing the efficacy of our methods and demonstrating their practical performance on a variety of computer vision models.
- Abstract(参考訳): コンピュータビジョンモデルを染色・ロックする新しい手法を導入し、所有者の知的財産を保護する。
ロックは、秘密のトリガーが入力画像に挿入されない限り、モデルを使用不能にすることを目的としている。
既存の手法とは異なり、我々のアルゴリズムは、微調整や再訓練を必要とせず、事前訓練されたモデルの染色とロックに利用できる。
ステンとロックは、少数のモデルの重みを直接修正することで実装され、(アンロックされた)モデルの性能に最小限の影響を与える。
ロックされたモデルは、入力画像の隅に小さな 'Trigger patch' を挿入することでロック解除される。
本稿では,本手法の有効性を示す実験結果と,各種コンピュータビジョンモデルにおける実用性能を示す。
関連論文リスト
- ModelLock: Locking Your Model With a Spell [90.36433941408536]
ModelLockと呼ばれる拡散ベースのフレームワークは、テキストガイドによる画像編集を探求し、トレーニングデータをユニークなスタイルに変換するか、バックグラウンドで新しいオブジェクトを追加する。
このデータセットに微調整されたモデルはロックされ、キープロンプトによってのみアンロックされる。
画像分類とセグメンテーションの両方のタスクについて広範な実験を行い、ModelLockが期待する性能を著しく低下させることなく、効果的に細調整されたモデルをロックできることを示します。
論文 参考訳(メタデータ) (2024-05-25T15:52:34Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - A Protection Method of Trained CNN Model with Secret Key from
Unauthorized Access [15.483078145498085]
本稿では,秘密鍵セットを用いて畳み込みニューラルネットワーク(CNN)モデルを保護する新しい手法を提案する。
本手法は,著作権侵害から保護するだけでなく,モデルの機能も不正アクセスから保護することができる。
論文 参考訳(メタデータ) (2021-05-31T07:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。