論文の概要: Deep Intellectual Property: A Survey
- arxiv url: http://arxiv.org/abs/2304.14613v1
- Date: Fri, 28 Apr 2023 03:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 15:25:44.234721
- Title: Deep Intellectual Property: A Survey
- Title(参考訳): 深層知的財産権:調査
- Authors: Yuchen Sun, Tianpeng Liu, Panhe Hu, Qing Liao, Shouling Ji, Nenghai
Yu, Deke Guo, Li Liu
- Abstract要約: 深層ニューラルネットワーク(DNN)は、膨大なトレーニングコストと優れた一般化性能のために、ますます価値が高く重要な資産になりつつある。
これらのトレーニングされたモデルは、'Machine Learning as a Service'(ML)パラダイムから恩恵を受けることなく、ユーザによって活用することができる。
これらの脅威から防衛する緊急の要件として、Deep Intellectual Property (DeepIP) は産業と学術の両方のコンセンサスとなっている。
- 参考スコア(独自算出の注目度): 93.08459984981054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread application in industrial manufacturing and commercial
services, well-trained deep neural networks (DNNs) are becoming increasingly
valuable and crucial assets due to the tremendous training cost and excellent
generalization performance. These trained models can be utilized by users
without much expert knowledge benefiting from the emerging ''Machine Learning
as a Service'' (MLaaS) paradigm. However, this paradigm also exposes the
expensive models to various potential threats like model stealing and abuse. As
an urgent requirement to defend against these threats, Deep Intellectual
Property (DeepIP), to protect private training data, painstakingly-tuned
hyperparameters, or costly learned model weights, has been the consensus of
both industry and academia. To this end, numerous approaches have been proposed
to achieve this goal in recent years, especially to prevent or discover model
stealing and unauthorized redistribution. Given this period of rapid evolution,
the goal of this paper is to provide a comprehensive survey of the recent
achievements in this field. More than 190 research contributions are included
in this survey, covering many aspects of Deep IP Protection:
challenges/threats, invasive solutions (watermarking), non-invasive solutions
(fingerprinting), evaluation metrics, and performance. We finish the survey by
identifying promising directions for future research.
- Abstract(参考訳): 産業製造業や商業サービスに広く応用されるにつれ、訓練コストと優れた一般化性能のために、十分に訓練されたディープニューラルネットワーク(DNN)はますます価値が高く重要な資産になりつつある。
これらのトレーニングされたモデルは、'Machine Learning as a Service'(MLaaS)パラダイムから恩恵を受けることなく、ユーザによって活用することができる。
しかし、このパラダイムは、モデル盗難や虐待など、さまざまな潜在的な脅威に対して、高価なモデルを公開する。
これらの脅威から防衛する緊急の要件として、私的なトレーニングデータ、痛く調整されたハイパーパラメータ、あるいは高価な学習されたモデルウェイトを保護するためのDeep Intellectual Property(DeepIP)が、業界と学界双方のコンセンサスとなっている。
この目的を達成するために、特にモデル盗みや不正な再配布を防止または発見するために、近年、多くのアプローチが提案されている。
この急速な進化の時期を考えると、本稿の目標はこの分野における最近の業績を総合的に調査することである。
この調査には190以上の研究成果が含まれており、ディープip保護の多くの側面をカバーしている: 課題/脅威、侵入的ソリューション(ウォーターマーキング)、非侵襲的ソリューション(フィンガープリンティング)、評価メトリクス、パフォーマンス。
今後の研究に期待できる方向を特定することで調査を終了する。
関連論文リスト
- Watermarking Neuromorphic Brains: Intellectual Property Protection in Spiking Neural Networks [3.4673556247932225]
スパイクニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングソリューションの展開において、勢いを増している。
適切な保護がなければ、プロプライエタリなSNNアーキテクチャは盗難、複製、誤用のリスクがある。
我々は指紋ベースとバックドアベースの2つの重要な透かしアプローチ、すなわち指紋ベースとバックドアベースのメカニズムを適応させる研究のパイオニアとなった。
論文 参考訳(メタデータ) (2024-05-07T06:42:30Z) - DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - DeepPeep: Exploiting Design Ramifications to Decipher the Architecture
of Compact DNNs [2.3651168422805027]
DeepPeepは、コンパクトDNNにおけるビルディングブロックのアーキテクチャをリバースエンジニアリングするための2段階攻撃手法である。
セキュアなMobileNet-V1"は、推論遅延の大幅な削減と予測性能の改善を提供する。
論文 参考訳(メタデータ) (2020-07-30T06:01:41Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。