論文の概要: Towards Understanding and Enhancing Security of Proof-of-Training for DNN Model Ownership Verification
- arxiv url: http://arxiv.org/abs/2410.04397v1
- Date: Thu, 10 Oct 2024 07:43:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 08:00:46.503278
- Title: Towards Understanding and Enhancing Security of Proof-of-Training for DNN Model Ownership Verification
- Title(参考訳): DNNモデルオーナシップ検証のための評価証明の理解と強化に向けて
- Authors: Yijia Chang, Hanrui Jiang, Chao Lin, Xinyi Huang, Jian Weng,
- Abstract要約: 具体的スキームにインスタンス化できる汎用的学習証明(PoT)の構築を提案する。
我々は,既存のPoTスキームを侵害した攻撃に対して,我々の計画が抵抗可能であることを示す。
- 参考スコア(独自算出の注目度): 10.719324803570878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The great economic values of deep neural networks (DNNs) urge AI enterprises to protect their intellectual property (IP) for these models. Recently, proof-of-training (PoT) has been proposed as a promising solution to DNN IP protection, through which AI enterprises can utilize the record of DNN training process as their ownership proof. To prevent attackers from forging ownership proof, a secure PoT scheme should be able to distinguish honest training records from those forged by attackers. Although existing PoT schemes provide various distinction criteria, these criteria are based on intuitions or observations. The effectiveness of these criteria lacks clear and comprehensive analysis, resulting in existing schemes initially deemed secure being swiftly compromised by simple ideas. In this paper, we make the first move to identify distinction criteria in the style of formal methods, so that their effectiveness can be explicitly demonstrated. Specifically, we conduct systematic modeling to cover a wide range of attacks and then theoretically analyze the distinctions between honest and forged training records. The analysis results not only induce a universal distinction criterion, but also provide detailed reasoning to demonstrate its effectiveness in defending against attacks covered by our model. Guided by the criterion, we propose a generic PoT construction that can be instantiated into concrete schemes. This construction sheds light on the realization that trajectory matching algorithms, previously employed in data distillation, possess significant advantages in PoT construction. Experimental results demonstrate that our scheme can resist attacks that have compromised existing PoT schemes, which corroborates its superiority in security.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の経済的価値は、AI企業に対して、これらのモデルに対する知的財産権(IP)を保護するように促している。
近年、AI企業がDNNトレーニングプロセスの記録をその所有権証明として利用できるDNNIP保護のための有望なソリューションとして、トレーニング証明(PoT)が提案されている。
攻撃者が所有権証明を偽造するのを防ぐため、セキュアなPoTスキームは攻撃者が偽造した訓練記録と区別できるべきである。
既存のPoTスキームは様々な区別基準を提供するが、これらの基準は直観や観察に基づいている。
これらの基準の有効性は明確で包括的な分析に欠けており、結果として既存のスキームは最初は単純なアイデアによって迅速に妥協されていると考えられていた。
本稿では,形式的手法のスタイルにおける識別基準の特定を初めて行い,その妥当性を明示する。
具体的には、幅広い攻撃をカバーするための体系的なモデリングを行い、その後、誠実な訓練記録と偽の訓練記録の区別を理論的に分析する。
この分析結果は, 普遍的な識別基準を導き出すだけでなく, モデルによってカバーされた攻撃に対する防御効果を示すための詳細な推論も提供する。
この基準に導かれ、具体的なスキームにインスタンス化できる汎用的なPoT構造を提案する。
この構造は、以前はデータ蒸留に用いられていた軌道整合アルゴリズムが、PoT構築において大きな利点を持つという認識に光を当てている。
実験結果から,既存のPoTスキームを侵害した攻撃に対して,セキュリティ上の優位性を損なうことが示唆された。
関連論文リスト
- Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Towards Evaluating Transfer-based Attacks Systematically, Practically,
and Fairly [79.07074710460012]
ディープニューラルネットワーク(DNN)の敵対的脆弱性に大きな注目を集めている。
ブラックボックスDNNモデルを騙すための転送ベース手法が増えている。
30以上のメソッドを実装した転送ベースアタックベンチマーク(TA-Bench)を確立する。
論文 参考訳(メタデータ) (2023-11-02T15:35:58Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Ownership Protection of Generative Adversarial Networks [9.355840335132124]
GAN(Generative Adversarial Network)は画像合成において顕著な成功を収めている。
GANの知的財産を技術的に保護することは重要である。
本稿では,対象モデルの共通特性と盗難モデルに基づく新たな所有権保護手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T14:31:58Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - Drawing Robust Scratch Tickets: Subnetworks with Inborn Robustness Are
Found within Randomly Initialized Networks [13.863895853997091]
一般的な宝くじ券の仮説とは別として、元の密集ネットワークや特定されたRTTをトレーニングする必要はない。
同一の高密度ネットワークから引き出された疎度比の異なるRTT間の逆転送性について検討した。
本稿では,Random RST Switch (R2S) 技術を提案する。
論文 参考訳(メタデータ) (2021-10-26T22:52:56Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - SoK: Certified Robustness for Deep Neural Networks [13.10665264010575]
近年の研究では、ディープニューラルネットワーク(DNN)が敵の攻撃に弱いことが示されている。
本稿では,実証可能な堅牢なアプローチと関連する実践的および理論的意味を体系化する。
また、既存の堅牢性検証と異なるデータセットでのトレーニングアプローチに関する、最初の包括的なベンチマークも提供しています。
論文 参考訳(メタデータ) (2020-09-09T07:00:55Z) - Challenging the adversarial robustness of DNNs based on error-correcting
output codes [33.46319608673487]
ECOCベースのネットワークは、小さな逆方向の摂動を導入することで、非常に容易に攻撃できる。
敵の例は、予測対象クラスの高い確率を達成するために、このような方法で生成することができる。
論文 参考訳(メタデータ) (2020-03-26T12:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。