論文の概要: DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking
- arxiv url: http://arxiv.org/abs/2407.01260v1
- Date: Mon, 1 Jul 2024 13:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 21:30:10.668141
- Title: DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking
- Title(参考訳): DeepiSign-G:自己完結型トラッキングのためのスタンプ隠れDNNパラメータに対するジェネリックな透かし
- Authors: Alsharif Abuadbba, Nicholas Rhodes, Kristen Moore, Bushra Sabir, Shuo Wang, Yansong Gao,
- Abstract要約: DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
- 参考スコア(独自算出の注目度): 15.394110881491773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning solutions in critical domains like autonomous vehicles, facial recognition, and sentiment analysis require caution due to the severe consequences of errors. Research shows these models are vulnerable to adversarial attacks, such as data poisoning and neural trojaning, which can covertly manipulate model behavior, compromising reliability and safety. Current defense strategies like watermarking have limitations: they fail to detect all model modifications and primarily focus on attacks on CNNs in the image domain, neglecting other critical architectures like RNNs. To address these gaps, we introduce DeepiSign-G, a versatile watermarking approach designed for comprehensive verification of leading DNN architectures, including CNNs and RNNs. DeepiSign-G enhances model security by embedding an invisible watermark within the Walsh-Hadamard transform coefficients of the model's parameters. This watermark is highly sensitive and fragile, ensuring prompt detection of any modifications. Unlike traditional hashing techniques, DeepiSign-G allows substantial metadata incorporation directly within the model, enabling detailed, self-contained tracking and verification. We demonstrate DeepiSign-G's applicability across various architectures, including CNN models (VGG, ResNets, DenseNet) and RNNs (Text sentiment classifier). We experiment with four popular datasets: VGG Face, CIFAR10, GTSRB Traffic Sign, and Large Movie Review. We also evaluate DeepiSign-G under five potential attacks. Our comprehensive evaluation confirms that DeepiSign-G effectively detects these attacks without compromising CNN and RNN model performance, highlighting its efficacy as a robust security measure for deep learning applications. Detection of integrity breaches is nearly perfect, while hiding only a bit in approximately 1% of the Walsh-Hadamard coefficients.
- Abstract(参考訳): 自動運転車、顔認識、感情分析といった重要な領域におけるディープラーニングソリューションは、エラーの深刻な結果のために注意が必要である。
研究によると、これらのモデルは、モデルの振る舞いを隠蔽的に操作し、信頼性と安全性を妥協するデータ中毒やニューラルトロイの木馬など、敵対的な攻撃に対して脆弱である。
ウォーターマーキングのような現在の防衛戦略には制限がある。すべてのモデル修正を検出できず、主に画像ドメイン内のCNNに対する攻撃に焦点を当て、RNNのような他の重要なアーキテクチャを無視している。
これらのギャップに対処するために,CNNやRNNを含む主要なDNNアーキテクチャの総合的な検証を目的とした,多目的な透かし手法であるDeepiSign-Gを導入する。
DeepiSign-Gはモデルのパラメータのウォルシュ・ハダマール変換係数に見えない透かしを埋め込むことでモデルのセキュリティを向上させる。
この透かしは感度が高く、壊れやすいため、いかなる修正も迅速に検出できる。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
本稿では,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を示す。
VGG Face, CIFAR10, GTSRB Traffic Sign, Large Movie Reviewの4つの一般的なデータセットを実験した。
また,DeepiSign-Gを5つの攻撃範囲で評価した。
我々は、DeepiSign-GがCNNとRNNモデルのパフォーマンスを損なうことなく、これらの攻撃を効果的に検出し、ディープラーニングアプリケーションに対する堅牢なセキュリティ対策としての有効性を強調した。
整合性破壊の検出は完璧に近いが、ウォルシュ・アダマール係数の約1%にわずかにしか隠れていない。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - Watermarking Graph Neural Networks based on Backdoor Attacks [10.844454900508566]
本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
論文 参考訳(メタデータ) (2021-10-21T09:59:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - DeepiSign: Invisible Fragile Watermark to Protect the Integrityand
Authenticity of CNN [37.98139322456872]
CNNモデルの完全性と信頼性を確保するために,自己完結型タンパー防止法DeepiSignを提案する。
DeepiSignは、壊れやすい見えない透かしのアイデアを適用して、秘密とそのハッシュ値をCNNモデルに安全に埋め込みます。
理論的解析により,DeepiSignは各層に最大1KBのシークレットを隠蔽し,モデルの精度を最小限に抑えることができた。
論文 参考訳(メタデータ) (2021-01-12T06:42:45Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。