論文の概要: Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2308.11235v1
- Date: Tue, 22 Aug 2023 07:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:34:41.195234
- Title: Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける自己相互チェックパラメータを用いた適応型ホワイトボックス透かし
- Authors: Zhenzhe Gao, Zhaoxia Yin, Hongjian Zhan, Heng Yin, Yue Lu
- Abstract要約: フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
従来の手法では、省略のリスク、追加の情報伝達、改ざんを正確に特定できないといった課題に直面していた。
そこで本研究では,改ざんされたパラメータを検出・発見・復元するために,改ざんされたパラメータやビットを検出する手法を提案する。
- 参考スコア(独自算出の注目度): 14.039159907367985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has found wide application, but also poses risks
due to unintentional or malicious tampering during deployment. Regular checks
are therefore necessary to detect and prevent such risks. Fragile watermarking
is a technique used to identify tampering in AI models. However, previous
methods have faced challenges including risks of omission, additional
information transmission, and inability to locate tampering precisely. In this
paper, we propose a method for detecting tampered parameters and bits, which
can be used to detect, locate, and restore parameters that have been tampered
with. We also propose an adaptive embedding method that maximizes information
capacity while maintaining model accuracy. Our approach was tested on multiple
neural networks subjected to attacks that modified weight parameters, and our
results demonstrate that our method achieved great recovery performance when
the modification rate was below 20%. Furthermore, for models where watermarking
significantly affected accuracy, we utilized an adaptive bit technique to
recover more than 15% of the accuracy loss of the model.
- Abstract(参考訳): 人工知能(AI)は広く応用されているが、デプロイ中に意図しない、悪意のない改ざんによってリスクも生じる。
したがって、このようなリスクを検出し防止するには定期的なチェックが必要である。
フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
しかし, 従来の手法では, 脱落リスク, 追加情報伝送, 改ざんの正確な検出が困難であった。
本稿では,改ざんパラメータやビットを検出する手法を提案し,改ざんパラメータを検出・発見・復元する手法を提案する。
また,モデル精度を維持しながら情報容量を最大化する適応埋め込み手法を提案する。
提案手法は,重みパラメータを修正した攻撃を受ける複数のニューラルネットワーク上でテストし,修正率が20%未満であった場合,本手法が高い回復性を示した。
さらに,透かしが精度に大きく影響したモデルに対して,適応ビット法を用いてモデルの精度損失の15%以上を復元した。
関連論文リスト
- Efficient Apple Maturity and Damage Assessment: A Lightweight Detection
Model with GAN and Attention Mechanism [7.742643088073472]
本研究では,軽量畳み込みニューラルネットワーク(CNN)とGAN(Generative Adversarial Network)に基づく手法を提案する。
リンゴ熟度グレーディング検出では, それぞれ95.6%, 93.8%, 95.0%, 56.5の精度, リコール, 精度, FPSが得られた。
リンゴの損傷レベル検出では、提案モデルはそれぞれ95.3%、93.7%、94.5%の精度、リコール、mAPに達する。
論文 参考訳(メタデータ) (2023-10-13T18:22:30Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Limits of Machine Learning for Automatic Vulnerability Detection [0.0]
自動脆弱性検出のための機械学習の最近の成果は非常に有望である。
しかし、これらの結果が一般的なものであり、データセットに特有でないことをどうやって知るのか?
トレーニングセットまたはテストセットの増幅中に意味保存変換を適用するクロスバリデーションアルゴリズムを提案する。
改善されたロバスト性は、トレーニングデータ増幅時に使用される特定の変換にのみ適用される。
論文 参考訳(メタデータ) (2023-06-28T08:41:39Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples [1.2691047660244335]
ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-04-18T21:49:14Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption [40.76024057426747]
本稿では,ニューラルネットワークパラメータのロバスト性を評価する指標を提案する。
現実的な目的のために、ランダムな汚職裁判よりもはるかに効果的である勾配に基づく評価を与える。
論文 参考訳(メタデータ) (2020-06-10T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。