論文の概要: Turn Passive to Active: A Survey on Active Intellectual Property
Protection of Deep Learning Models
- arxiv url: http://arxiv.org/abs/2310.09822v1
- Date: Sun, 15 Oct 2023 12:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:48:40.922892
- Title: Turn Passive to Active: A Survey on Active Intellectual Property
Protection of Deep Learning Models
- Title(参考訳): Turn Passive to Active: A Survey on Active Intellectual Property Protection of Deep Learning Models
- Authors: Mingfu Xue, Leo Yu Zhang, Yushu Zhang, Weiqiang Liu
- Abstract要約: 深層学習モデル(DL)の知的財産保護は深刻な関心を集めている。
既存の作業の大部分は、海賊行為後のモデルの所有権を検証するためにDNNの透かしを使用している。
我々は,アクティブ著作権保護という新たなタイプの知的財産保護手法に焦点をあてる。
- 参考スコア(独自算出の注目度): 14.556456339427275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intellectual property protection of deep learning (DL) models has
attracted increasing serious concerns. Many works on intellectual property
protection for Deep Neural Networks (DNN) models have been proposed. The vast
majority of existing work uses DNN watermarking to verify the ownership of the
model after piracy occurs, which is referred to as passive verification. On the
contrary, we focus on a new type of intellectual property protection method
named active copyright protection, which refers to active authorization control
and user identity management of the DNN model. As of now, there is relatively
limited research in the field of active DNN copyright protection. In this
review, we attempt to clearly elaborate on the connotation, attributes, and
requirements of active DNN copyright protection, provide evaluation methods and
metrics for active copyright protection, review and analyze existing work on
active DL model intellectual property protection, discuss potential attacks
that active DL model copyright protection techniques may face, and provide
challenges and future directions for active DL model intellectual property
protection. This review is helpful to systematically introduce the new field of
active DNN copyright protection and provide reference and foundation for
subsequent work.
- Abstract(参考訳): 深層学習モデル(DL)の知的財産保護は深刻な関心を集めている。
ディープニューラルネットワーク(DNN)モデルの知的財産保護に関する多くの研究が提案されている。
既存の作業の大部分は、海賊行為後のモデルの所有権を検証するためにDNN透かしを使用しており、これは受動的検証と呼ばれる。
逆に我々は,DNNモデルのアクティブな認証制御とユーザアイデンティティ管理を参考に,アクティブ著作権保護という新たなタイプの知的財産保護手法に注目した。
現在、DNN著作権保護の分野では比較的限定的な研究が行われている。
本稿では,アクティブなdnn著作権保護の意義,属性,要件の明確化,アクティブな著作権保護のための評価方法と指標の提供,アクティブなdlモデル知的財産保護に関する既存の作業のレビューと分析,アクティブなdlモデル著作権保護技術が直面する可能性のある潜在的な攻撃の議論,アクティブなdlモデル知的財産保護の課題と今後の方向性について述べる。
このレビューは、DNN著作権保護の新しい分野を体系的に導入し、その後の作業の参考と基礎を提供するのに役立つ。
関連論文リスト
- A Game Between the Defender and the Attacker for Trigger-based Black-box Model Watermarking [10.363612241019652]
本稿では,トリガベースブラックボックスモデル透かしにおけるモデルアタッカーとモデルディフェンダーのゲームを紹介する。
2人のプレイヤーそれぞれに対して、ペイオフ関数を構築し、最適応答を決定する。
論文 参考訳(メタデータ) (2025-01-02T11:07:38Z) - Evaluating Copyright Takedown Methods for Language Models [100.38129820325497]
言語モデル(LM)は、潜在的に著作権のある資料を含む様々なデータに対する広範な訓練からその能力を引き出す。
本稿では,LMの著作権削除の可能性と副作用を初めて評価する。
システムプロンプトの追加、デコード時間フィルタリングの介入、未学習アプローチなど、いくつかの戦略を検討する。
論文 参考訳(メタデータ) (2024-06-26T18:09:46Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Copyright Protection in Generative AI: A Technical Perspective [58.84343394349887]
ジェネレーティブAIは近年急速に進歩し、テキスト、画像、オーディオ、コードなどの合成コンテンツを作成する能力を拡大している。
これらのディープ・ジェネレーティブ・モデル(DGM)が生成したコンテンツの忠実さと信頼性が、著作権の重大な懸念を引き起こしている。
この研究は、技術的観点から著作権保護の包括的概要を提供することで、この問題を深く掘り下げている。
論文 参考訳(メタデータ) (2024-02-04T04:00:33Z) - Performance-lossless Black-box Model Watermarking [69.22653003059031]
本稿では,モデル知的財産権を保護するために,ブランチバックドアベースのモデル透かしプロトコルを提案する。
さらに,プロトコルに対する潜在的な脅威を分析し,言語モデルに対するセキュアで実現可能な透かしインスタンスを提供する。
論文 参考訳(メタデータ) (2023-12-11T16:14:04Z) - Deep Intellectual Property Protection: A Survey [70.98782484559408]
近年、ディープニューラルネットワーク(DNN)は革命的な進歩を遂げており、様々な分野で広く利用されている。
本研究の目的は,ディープウォーターマーキングとディープフィンガープリントの2つの主要なDNNIP保護手法を総合的に調査することである。
論文 参考訳(メタデータ) (2023-04-28T03:34:43Z) - InFIP: An Explainable DNN Intellectual Property Protection Method based
on Intrinsic Features [12.037142903022891]
本稿では,説明可能な人工知能に基づくディープニューラルネットワーク(DNN)の解釈可能な知的財産保護手法を提案する。
提案手法はDNNモデルを変更せず,オーナシップ検証の決定は解釈可能である。
実験結果から,指紋はモデルの所有権検証に有効であることが示された。
論文 参考訳(メタデータ) (2022-10-14T03:12:36Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。