論文の概要: An Embarrassingly Simple Approach for Intellectual Property Rights
Protection on Recurrent Neural Networks
- arxiv url: http://arxiv.org/abs/2210.00743v1
- Date: Mon, 3 Oct 2022 07:25:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:59:35.311454
- Title: An Embarrassingly Simple Approach for Intellectual Property Rights
Protection on Recurrent Neural Networks
- Title(参考訳): リカレントニューラルネットワークにおける知的財産権保護のための恥ずかしい簡単なアプローチ
- Authors: Zhi Qin Tan, Hao Shan Wong, Chee Seng Chan
- Abstract要約: 本稿では,リカレントニューラルネットワーク(RNN)における知的財産保護のための実践的アプローチを提案する。
キーを埋め込むためのRNNアーキテクチャの繰り返しの性質に類似したGatekeeperの概念を紹介します。
白箱と黒箱の両方の保護スキームにおける曖昧さと除去攻撃に対して,我々の保護スキームは堅牢かつ効果的である。
- 参考スコア(独自算出の注目度): 11.580808497808341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Capitalise on deep learning models, offering Natural Language Processing
(NLP) solutions as a part of the Machine Learning as a Service (MLaaS) has
generated handsome revenues. At the same time, it is known that the creation of
these lucrative deep models is non-trivial. Therefore, protecting these
inventions intellectual property rights (IPR) from being abused, stolen and
plagiarized is vital. This paper proposes a practical approach for the IPR
protection on recurrent neural networks (RNN) without all the bells and
whistles of existing IPR solutions. Particularly, we introduce the Gatekeeper
concept that resembles the recurrent nature in RNN architecture to embed keys.
Also, we design the model training scheme in a way such that the protected RNN
model will retain its original performance iff a genuine key is presented.
Extensive experiments showed that our protection scheme is robust and effective
against ambiguity and removal attacks in both white-box and black-box
protection schemes on different RNN variants. Code is available at
https://github.com/zhiqin1998/RecurrentIPR
- Abstract(参考訳): ディープラーニングモデルに注力し、機械学習・アズ・ア・サービス(MLaaS)の一部として自然言語処理(NLP)ソリューションを提供する。
同時に、これらの有益な深層モデルの作成は自明ではないことが知られている。
したがって、これらの発明の知的財産権(IPR)の侵害、盗難、盗難の防止が不可欠である。
本稿では,既存の IPR ソリューションのすべての鐘や笛を使わずに,リカレントニューラルネットワーク(RNN)における IPR 保護のための実践的アプローチを提案する。
特に,キーを埋め込むためのRNNアーキテクチャの繰り返しの性質に類似したGatekeeperの概念を導入する。
また,保護されたRNNモデルが元の性能フリップを真のキーとして保持するように,モデルトレーニングスキームを設計する。
広汎な実験により,我々の保護スキームは,異なるRNN変種に対するホワイトボックスおよびブラックボックス保護スキームのあいまいさと除去攻撃に対して堅牢かつ効果的であることが判明した。
コードはhttps://github.com/zhiqin1998/recurrentiprで入手できる。
関連論文リスト
- GhostRNN: Reducing State Redundancy in RNN with Cheap Operations [66.14054138609355]
本稿では,効率的なRNNアーキテクチャであるGhostRNNを提案する。
KWSとSEタスクの実験により、提案されたGhostRNNはメモリ使用量(40%)と計算コストを大幅に削減し、性能は類似している。
論文 参考訳(メタデータ) (2024-11-20T11:37:14Z) - DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - Reconstructive Neuron Pruning for Backdoor Defense [96.21882565556072]
本稿では, バックドアニューロンの露出とプルーンの抑制を目的とした, emphReconstructive Neuron Pruning (RNP) という新しい防御法を提案する。
RNPでは、アンラーニングはニューロンレベルで行われ、リカバリはフィルタレベルで行われ、非対称再構成学習手順を形成する。
このような非対称なプロセスは、少数のクリーンサンプルだけが、広範囲の攻撃によって移植されたバックドアニューロンを効果的に露出し、刺激することができることを示す。
論文 参考訳(メタデータ) (2023-05-24T08:29:30Z) - Deep Intellectual Property Protection: A Survey [70.98782484559408]
近年、ディープニューラルネットワーク(DNN)は革命的な進歩を遂げており、様々な分野で広く利用されている。
本研究の目的は,ディープウォーターマーキングとディープフィンガープリントの2つの主要なDNNIP保護手法を総合的に調査することである。
論文 参考訳(メタデータ) (2023-04-28T03:34:43Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Preventing Distillation-based Attacks on Neural Network IP [0.9558392439655015]
ニューラルネットワーク(NN)はすでにハードウェアにデプロイされており、トレーニングと最適化に何時間も費やされているため、貴重な知的財産権(IP)になっている。
そこで本研究では,蒸留による攻撃を防ぎ,予測を害する直感的な方法を提案する。
提案手法はNNを難読化して、攻撃者がNNを完全に的確に訓練できないようにする。
論文 参考訳(メタデータ) (2022-04-01T08:53:57Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Protecting Intellectual Property of Generative Adversarial Networks from
Ambiguity Attack [26.937702447957193]
フォトリアリスティック画像作成に広く用いられているGAN(Generative Adrial Networks)は完全に保護されていない。
本稿では,知的財産権(IPR)保護をGANに強制するために,ブラックボックスとホワイトボックスの両方で完全な保護フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-08T17:12:20Z) - Deep-Lock: Secure Authorization for Deep Neural Networks [9.0579592131111]
ディープニューラルネットワーク(DNN)モデルは、いくつかのビジネスモデルにおいて価値のある知的特性(IP)と見なされている。
このようなDNNモデルのIP盗難や不正使用の防止は、業界で重要な懸念事項となっている。
そこで本研究では,ロックされたモデルが正しい秘密鍵を適用した場合にのみ正しく機能することを保証する,汎用的で軽量なキーベースモデルロック方式を提案する。
論文 参考訳(メタデータ) (2020-08-13T15:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。