論文の概要: Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2308.11235v1
- Date: Tue, 22 Aug 2023 07:21:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:34:41.195234
- Title: Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおける自己相互チェックパラメータを用いた適応型ホワイトボックス透かし
- Authors: Zhenzhe Gao, Zhaoxia Yin, Hongjian Zhan, Heng Yin, Yue Lu
- Abstract要約: フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
従来の手法では、省略のリスク、追加の情報伝達、改ざんを正確に特定できないといった課題に直面していた。
そこで本研究では,改ざんされたパラメータを検出・発見・復元するために,改ざんされたパラメータやビットを検出する手法を提案する。
- 参考スコア(独自算出の注目度): 14.039159907367985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has found wide application, but also poses risks
due to unintentional or malicious tampering during deployment. Regular checks
are therefore necessary to detect and prevent such risks. Fragile watermarking
is a technique used to identify tampering in AI models. However, previous
methods have faced challenges including risks of omission, additional
information transmission, and inability to locate tampering precisely. In this
paper, we propose a method for detecting tampered parameters and bits, which
can be used to detect, locate, and restore parameters that have been tampered
with. We also propose an adaptive embedding method that maximizes information
capacity while maintaining model accuracy. Our approach was tested on multiple
neural networks subjected to attacks that modified weight parameters, and our
results demonstrate that our method achieved great recovery performance when
the modification rate was below 20%. Furthermore, for models where watermarking
significantly affected accuracy, we utilized an adaptive bit technique to
recover more than 15% of the accuracy loss of the model.
- Abstract(参考訳): 人工知能(AI)は広く応用されているが、デプロイ中に意図しない、悪意のない改ざんによってリスクも生じる。
したがって、このようなリスクを検出し防止するには定期的なチェックが必要である。
フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
しかし, 従来の手法では, 脱落リスク, 追加情報伝送, 改ざんの正確な検出が困難であった。
本稿では,改ざんパラメータやビットを検出する手法を提案し,改ざんパラメータを検出・発見・復元する手法を提案する。
また,モデル精度を維持しながら情報容量を最大化する適応埋め込み手法を提案する。
提案手法は,重みパラメータを修正した攻撃を受ける複数のニューラルネットワーク上でテストし,修正率が20%未満であった場合,本手法が高い回復性を示した。
さらに,透かしが精度に大きく影響したモデルに対して,適応ビット法を用いてモデルの精度損失の15%以上を復元した。
関連論文リスト
- On the Weaknesses of Backdoor-based Model Watermarking: An Information-theoretic Perspective [39.676548104635096]
機械学習モデルの知的財産権の保護は、AIセキュリティの急激な懸念として浮上している。
モデルウォーターマーキングは、機械学習モデルのオーナシップを保護するための強力なテクニックである。
本稿では,既存の手法の限界を克服するため,新しいウォーターマーク方式であるIn-distriion Watermark Embedding (IWE)を提案する。
論文 参考訳(メタデータ) (2024-09-10T00:55:21Z) - Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - Approaching Test Time Augmentation in the Context of Uncertainty Calibration for Deep Neural Networks [2.112682368145474]
画像分類のための深部モデルの不確実性校正を改善するため,M-ATTAとV-ATTAという新しい手法を提案する。
ナ適応重み付けシステムを利用することで、M/V-ATTAはモデルの精度に影響を与えることなく不確実性校正を改善する。
論文 参考訳(メタデータ) (2023-04-11T10:01:39Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - UNBUS: Uncertainty-aware Deep Botnet Detection System in Presence of
Perturbed Samples [1.2691047660244335]
ボットネット検出には極めて低い偽陽性率(FPR)が必要であるが、現代のディープラーニングでは一般的に達成できない。
本稿では,98%以上の精度のボットネット分類のためのLSTMに基づく2つの分類アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-04-18T21:49:14Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Exploring the Vulnerability of Deep Neural Networks: A Study of
Parameter Corruption [40.76024057426747]
本稿では,ニューラルネットワークパラメータのロバスト性を評価する指標を提案する。
現実的な目的のために、ランダムな汚職裁判よりもはるかに効果的である勾配に基づく評価を与える。
論文 参考訳(メタデータ) (2020-06-10T02:29:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。