論文の概要: PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models
- arxiv url: http://arxiv.org/abs/2206.02541v2
- Date: Tue, 28 Nov 2023 09:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 17:54:53.628792
- Title: PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models
- Title(参考訳): PCPTとACPT:DNNモデルの著作権保護とトレーサビリティ・スキーム
- Authors: Xuefeng Fan, Dahao Fu, Hangyu Gui, Xinpeng Zhang and Xiaoyi Zhou
- Abstract要約: ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
- 参考スコア(独自算出の注目度): 13.043683635373213
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) have achieved tremendous success in artificial
intelligence (AI) fields. However, DNN models can be easily illegally copied,
redistributed, or abused by criminals, seriously damaging the interests of
model inventors. The copyright protection of DNN models by neural network
watermarking has been studied, but the establishment of a traceability
mechanism for determining the authorized users of a leaked model is a new
problem driven by the demand for AI services. Because the existing traceability
mechanisms are used for models without watermarks, a small number of
false-positives are generated. Existing black-box active protection schemes
have loose authorization control and are vulnerable to forgery attacks.
Therefore, based on the idea of black-box neural network watermarking with the
video framing and image perceptual hash algorithm, a passive copyright
protection and traceability framework PCPT is proposed that uses an additional
class of DNN models, improving the existing traceability mechanism that yields
a small number of false-positives. Based on an authorization control strategy
and image perceptual hash algorithm, a DNN model active copyright protection
and traceability framework ACPT is proposed. This framework uses the
authorization control center constructed by the detector and verifier. This
approach realizes stricter authorization control, which establishes a strong
connection between users and model owners, improves the framework security, and
supports traceability verification.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
しかし、DNNモデルは容易に違法にコピーされ、再配布され、犯罪者によって虐待され、モデル発明者の利益を著しく損なうことができる。
ニューラルネットワークの透かしによるDNNモデルの著作権保護が研究されているが、漏洩したモデルの認証ユーザを決定するトレーサビリティメカニズムの確立は、AIサービスの需要が引き起こした新たな問題である。
既存のトレーサビリティメカニズムは透かしのないモデルに使用されるため、少数の偽陽性が生成される。
既存のブラックボックスのアクティブ保護スキームは、権限制御が緩く、偽造攻撃に弱い。
そこで,ビデオフレーミングと画像知覚ハッシュアルゴリズムを用いたブラックボックスニューラルネットワークの透かしの考え方に基づき,新たなdnnモデルを用いた受動的著作権保護・トレーサビリティフレームワークpcptを提案し,少数の偽陽性を生じさせる既存のトレーサビリティメカニズムを改善した。
認証制御戦略と画像知覚ハッシュアルゴリズムに基づいて,dnnモデルによる著作権保護とトレーサビリティフレームワークapptを提案する。
このフレームワークは、検出器と検証器によって構築された認可制御センターを使用する。
このアプローチは、より厳格な認証制御を実現し、ユーザとモデルオーナ間の強い接続を確立し、フレームワークのセキュリティを改善し、トレーサビリティ検証をサポートする。
関連論文リスト
- IDEA: An Inverse Domain Expert Adaptation Based Active DNN IP Protection Method [8.717704777664604]
ディープニューラルネットワーク(DNN)モデルの非合法的な複製、配布、導出は、経済的損失、評判のダメージ、さらにはプライバシー侵害にも影響を及ぼす可能性がある。
提案するIDEAは、アクティブな認証とソーストレーサビリティを備えた、逆ドメインエキスパート適応に基づくプロアクティブDNNIP保護手法である。
5つのデータセットと4つのDNNモデル上でIDEAを広範囲に評価し、認証制御、原因追跡成功率、各種攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2024-09-29T09:34:33Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Automatically Lock Your Neural Networks When You're Away [5.153873824423363]
ローカルな動的アクセス制御を備えたエンドツーエンドのニューラルネットワークを実現するモデルロック(M-LOCK)を提案する。
3種類のモデルトレーニング戦略は、1つのニューラルネットワークで認証された入力と疑似入力の間の膨大なパフォーマンスの相違を達成するために不可欠である。
論文 参考訳(メタデータ) (2021-03-15T15:47:54Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。