論文の概要: OVLA: Neural Network Ownership Verification using Latent Watermarks
- arxiv url: http://arxiv.org/abs/2306.13215v2
- Date: Mon, 26 Jun 2023 02:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 19:59:32.404801
- Title: OVLA: Neural Network Ownership Verification using Latent Watermarks
- Title(参考訳): OVLA:潜時透かしを用いたニューラルネットワークのオーナシップ検証
- Authors: Feisi Fu, Wenchao Li
- Abstract要約: 本稿では,潜伏した透かしに基づくニューラルネットワークのオーナシップ検証のための新しい手法を提案する。
提案手法は,バックドア検出,バックドア除去,サロゲートモデル攻撃に対する強力な防御効果を示す。
- 参考スコア(独自算出の注目度): 7.661766773170363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ownership verification for neural networks is important for protecting these
models from illegal copying, free-riding, re-distribution and other
intellectual property misuse. We present a novel methodology for neural network
ownership verification based on the notion of latent watermarks. Existing
ownership verification methods either modify or introduce constraints to the
neural network parameters, which are accessible to an attacker in a white-box
attack and can be harmful to the network's normal operation, or train the
network to respond to specific watermarks in the inputs similar to data
poisoning-based backdoor attacks, which are susceptible to backdoor removal
techniques. In this paper, we address these problems by decoupling a network's
normal operation from its responses to watermarked inputs during ownership
verification. The key idea is to train the network such that the watermarks
remain dormant unless the owner's secret key is applied to activate it. The
secret key is realized as a specific perturbation only known to the owner to
the network's parameters. We show that our approach offers strong defense
against backdoor detection, backdoor removal and surrogate model attacks.In
addition, our method provides protection against ambiguity attacks where the
attacker either tries to guess the secret weight key or uses fine-tuning to
embed their own watermarks with a different key into a pre-trained neural
network. Experimental results demonstrate the advantages and effectiveness of
our proposed approach.
- Abstract(参考訳): ニューラルネットワークのオーナシップ検証は、これらのモデルを違法コピー、フリーライディング、再配布、その他の知的財産の誤用から保護するために重要である。
本稿では,潜時透かしの概念に基づくニューラルネットワークのオーナシップ検証手法を提案する。
既存のオーナシップ検証方法は、ホワイトボックス攻撃で攻撃者がアクセスしやすく、ネットワークの通常の操作に有害なニューラルネットワークパラメータに制約を変更したり導入したり、あるいはバックドア除去テクニックの影響を受けるデータ中毒ベースのバックドア攻撃に似た入力で特定の透かしに応答するようにネットワークを訓練する。
本稿では,ネットワークの正常な動作を,オーナシップ検証中の透かし入力に対する応答から切り離して,これらの問題に対処する。
鍵となる考え方は、所有者の秘密鍵が適用されない限り、透かしが休眠状態のままであるようにネットワークを訓練することである。
秘密鍵は、ネットワークのパラメータの所有者のみが知っている特定の摂動として実現される。
提案手法は,バックドア検出,バックドア除去,サロゲートモデル攻撃に対する強力な防御を提供すると同時に,攻撃者が秘密の重み付けキーを推測しようとする場合や,異なるキーを持つ自己の透かしを事前学習したニューラルネットワークに埋め込む場合の曖昧性攻撃に対する保護を提供する。
実験結果は,提案手法の利点と有効性を示す。
関連論文リスト
- Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Verifying Neural Networks Against Backdoor Attacks [7.5033553032683855]
特定のニューラルネットワークが一定の成功率でバックドアのないかどうかを検証するためのアプローチを提案する。
実験結果から,バックドアの欠如やバックドアのトリガの発生を効果的に検証できることが示唆された。
論文 参考訳(メタデータ) (2022-05-14T07:25:54Z) - Knowledge-Free Black-Box Watermark and Ownership Proof for Image
Classification Neural Networks [9.117248639119529]
画像分類ニューラルネットワークのための知識のないブラックボックス透かし方式を提案する。
繊細なエンコーディングと検証のプロトコルは、スキームの敵に対する未知のセキュリティを確保するために設計されている。
実験により,提案した透かし方式の機能保存能力と安全性が実証された。
論文 参考訳(メタデータ) (2022-04-09T18:09:02Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Neural Network Laundering: Removing Black-Box Backdoor Watermarks from
Deep Neural Networks [17.720400846604907]
ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
本論文では,すべてのバックドア透かし法について,透かしの頑健さが当初の主張よりも著しく弱いことが確認された。
論文 参考訳(メタデータ) (2020-04-22T19:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。