論文の概要: MAP: MAsk-Pruning for Source-Free Model Intellectual Property Protection
- arxiv url: http://arxiv.org/abs/2403.04149v1
- Date: Thu, 7 Mar 2024 02:10:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:36:15.879778
- Title: MAP: MAsk-Pruning for Source-Free Model Intellectual Property Protection
- Title(参考訳): map: ソースフリーな知的財産保護のためのマスクプルーニング
- Authors: Boyang Peng, Sanqing Qu, Yong Wu, Tianpei Zou, Lianghua He, Alois
Knoll, Guang Chen, changjun jiang
- Abstract要約: MAsk Pruning (MAP) は、ターゲット関連パラメータをよく訓練されたモデルで探索・解析するためのフレームワークである。
MAPはソースモデルを凍結し、ターゲット固有のバイナリマスクを学び、不正なデータの使用を防止する。
大規模な実験により、MAPは新たな最先端のパフォーマンスをもたらすことが示されている。
- 参考スコア(独自算出の注目度): 18.99205251538783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has achieved remarkable progress in various applications,
heightening the importance of safeguarding the intellectual property (IP) of
well-trained models. It entails not only authorizing usage but also ensuring
the deployment of models in authorized data domains, i.e., making models
exclusive to certain target domains. Previous methods necessitate concurrent
access to source training data and target unauthorized data when performing IP
protection, making them risky and inefficient for decentralized private data.
In this paper, we target a practical setting where only a well-trained source
model is available and investigate how we can realize IP protection. To achieve
this, we propose a novel MAsk Pruning (MAP) framework. MAP stems from an
intuitive hypothesis, i.e., there are target-related parameters in a
well-trained model, locating and pruning them is the key to IP protection.
Technically, MAP freezes the source model and learns a target-specific binary
mask to prevent unauthorized data usage while minimizing performance
degradation on authorized data. Moreover, we introduce a new metric aimed at
achieving a better balance between source and target performance degradation.
To verify the effectiveness and versatility, we have evaluated MAP in a variety
of scenarios, including vanilla source-available, practical source-free, and
challenging data-free. Extensive experiments indicate that MAP yields new
state-of-the-art performance.
- Abstract(参考訳): ディープラーニングは様々な応用において著しく進歩し、十分に訓練されたモデルの知的財産(ip)を保護する重要性を高めている。
使用を許可するだけでなく、特定のターゲットドメインに限定したモデルを作成することで、認証されたデータドメインにモデルをデプロイすることを保証する。
従来の方法では、ソーストレーニングデータへの同時アクセスが必要であり、ip保護を行う際に不正なデータをターゲットにしており、分散プライベートデータに対してリスクが高く非効率である。
本稿では、十分に訓練されたソースモデルのみを利用できる実践的な設定を目標とし、IP保護を実現する方法について検討する。
そこで我々は,新しいMAsk Pruning(MAP)フレームワークを提案する。
MAPは直感的な仮説、すなわち、よく訓練されたモデルにターゲットに関連するパラメータがあり、それらを位置決めしてプルーニングすることがIP保護の鍵である。
技術的には、MAPはソースモデルを凍結し、ターゲット固有のバイナリマスクを学習し、認証データの性能劣化を最小限に抑えながら、不正なデータ使用を防止する。
さらに、ソースとターゲットのパフォーマンス劣化のバランスを改善するための新しい指標を提案する。
有効性と汎用性を検証するため,バニラソースフリー,実用的なソースフリー,挑戦的なデータフリーなど,さまざまなシナリオでMAPを評価した。
広範な実験により、mapは新しい最先端のパフォーマンスをもたらすことが示されている。
関連論文リスト
- Non-transferable Pruning [5.690414273625171]
事前学習型ディープニューラルネットワーク(DNN)は、ますます価値ある知的財産権(IP)として認識されつつある
これらのモデルをIP侵害から保護するために、所有権の検証と使用許可のための戦略が出現した。
提案するNon-Transferable Pruning(NTP)は,事前訓練したDNNの非許可データ領域への転送可能性を制御するために,モデルプルーニングを利用する新しいIP保護手法である。
論文 参考訳(メタデータ) (2024-10-10T15:10:09Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Distill and Fine-tune: Effective Adaptation from a Black-box Source
Model [138.12678159620248]
Unsupervised Domain Adapt (UDA) は、既存のラベル付きデータセット (source) の知識を新しいラベル付きデータセット (target) に転送することを目的としています。
Distill and Fine-tune (Dis-tune) という新しい二段階適応フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-04T05:29:05Z) - Source Data-absent Unsupervised Domain Adaptation through Hypothesis
Transfer and Labeling Transfer [137.36099660616975]
Unsupervised Adapt Adaptation (UDA) は、関連性のある異なるラベル付きソースドメインから新しいラベルなしターゲットドメインへの知識の転送を目標としている。
既存のudaメソッドの多くはソースデータへのアクセスを必要としており、プライバシ上の懸念からデータが機密で共有できない場合は適用できない。
本稿では、ソースデータにアクセスする代わりに、トレーニング済みの分類モデルのみを用いて現実的な設定に取り組むことを目的とする。
論文 参考訳(メタデータ) (2020-12-14T07:28:50Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。