論文の概要: PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Model
- arxiv url: http://arxiv.org/abs/2206.02541v1
- Date: Mon, 6 Jun 2022 12:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:56:13.219857
- Title: PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Model
- Title(参考訳): PCPTとACPT:DNNモデルの著作権保護とトレーサビリティ・スキーム
- Authors: Xuefeng Fan, Hangyu Gui and Xiaoyi Zhou
- Abstract要約: 本研究では,パッシブ著作権保護・トレーサビリティ・フレームワークPCPTを提案する。
これは、ビデオフレーミングと画像知覚ハッシュアルゴリズムによるブラックボックスニューラルネットワーク透かしのアイデアに基づいている。
より厳格な認証制御を実現し、ユーザーとモデル所有者との強いつながりを確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) have achieved tremendous success in artificial
intelligence (AI) fields. However, DNN models can be easily illegally copied,
redistributed, or abused by criminals, seriously damaging the interests of
model inventers. Currently, the copyright protection of DNN models by neural
network watermarking has been studied, but the establishment of a traceability
mechanism for determining the authorized users of a leaked model is a new
problem driven by the demand for AI services. Because the existing traceability
mechanisms are used for models without watermarks, a small number of false
positives is generated. Existing black-box active protection schemes have loose
authorization control and are vulnerable to forgery attacks. Therefore, based
on the idea of black-box neural network watermarking with the video framing and
image perceptual hash algorithm, this study proposes a passive copyright
protection and traceability framework PCPT using an additional class of DNN
models, improving the existing traceability mechanism that yields a small
number of false positives. Based on the authorization control strategy and
image perceptual hash algorithm, using the authorization control center
constructed using the detector and verifier, a DNN model active copyright
protection and traceability framework ACPT is proposed. It realizes stricter
authorization control, which establishes a strong connection between users and
model owners, and improves the framework security. The key sample that is
simultaneously generated does not affect the quality of the original image and
supports traceability verification.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
しかし、DNNモデルは犯罪者によって容易に違法にコピー、再配布、虐待され、モデル発明者の利益を著しく損なうことができる。
現在、ニューラルネットワーク透かしによるDNNモデルの著作権保護が研究されているが、漏洩したモデルの認証ユーザを決定するトレーサビリティメカニズムの確立は、AIサービスの需要が引き起こした新たな問題である。
既存のトレーサビリティメカニズムは透かしのないモデルに使われているため、少数の偽陽性が生成される。
既存のブラックボックスのアクティブ保護スキームは、権限制御が緩く、偽造攻撃に弱い。
そこで本研究では,ビデオフレーミングとイメージ知覚ハッシュアルゴリズムを用いたブラックボックスニューラルネットワークの透かしの考え方に基づき,追加のdnnモデルを用いたパッシブ著作権保護・トレーサビリティフレームワークpcptを提案し,少数の偽陽性をもたらす既存のトレーサビリティメカニズムを改善した。
認証制御戦略と画像知覚ハッシュアルゴリズムに基づいて,検出器と検証器を用いて構築した認証制御センターを用いて,dnnモデルアクティブ著作権保護およびトレーサビリティフレームワークapptを提案する。
より厳格な認証制御を実現し、ユーザとモデルオーナの強いつながりを確立し、フレームワークのセキュリティを改善します。
同時に生成されたキーサンプルは、元の画像の品質に影響を与えず、トレーサビリティ検証をサポートする。
関連論文リスト
- IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method [8.717704777664604]
ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2024-09-29T09:34:33Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Automatically Lock Your Neural Networks When You're Away [5.153873824423363]
ローカルな動的アクセス制御を備えたエンドツーエンドのニューラルネットワークを実現するモデルロック(M-LOCK)を提案する。
3種類のモデルトレーニング戦略は、1つのニューラルネットワークで認証された入力と疑似入力の間の膨大なパフォーマンスの相違を達成するために不可欠である。
論文 参考訳(メタデータ) (2021-03-15T15:47:54Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。