論文の概要: Attention Distraction: Watermark Removal Through Continual Learning with
Selective Forgetting
- arxiv url: http://arxiv.org/abs/2204.01934v1
- Date: Tue, 5 Apr 2022 02:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:12:09.633640
- Title: Attention Distraction: Watermark Removal Through Continual Learning with
Selective Forgetting
- Title(参考訳): 注意散逸:選択的フォーミングによる連続学習による透かし除去
- Authors: Qi Zhong and Leo Yu Zhang and Shengshan Hu and Longxiang Gao and Jun
Zhang and Yong Xiang
- Abstract要約: 本研究では,アテンション・ディトラクション (AD) を導入した。
特にADは、ラベル付けされていないデータを使って、モデルのメインタスクへの注意を固定する。
そして、連続学習を通じて、新しいラベルを割り当てられた少数のテキスト(ランダムに選択された自然画像)が、透かしからモデルの注意をそらす。
- 参考スコア(独自算出の注目度): 20.0232127761128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fine-tuning attacks are effective in removing the embedded watermarks in deep
learning models. However, when the source data is unavailable, it is
challenging to just erase the watermark without jeopardizing the model
performance. In this context, we introduce Attention Distraction (AD), a novel
source data-free watermark removal attack, to make the model selectively forget
the embedded watermarks by customizing continual learning. In particular, AD
first anchors the model's attention on the main task using some unlabeled data.
Then, through continual learning, a small number of \textit{lures} (randomly
selected natural images) that are assigned a new label distract the model's
attention away from the watermarks. Experimental results from different
datasets and networks corroborate that AD can thoroughly remove the watermark
with a small resource budget without compromising the model's performance on
the main task, which outperforms the state-of-the-art works.
- Abstract(参考訳): 微調整攻撃は、ディープラーニングモデルに埋め込まれた透かしを取り除くのに有効である。
しかし、ソースデータが利用できない場合、モデル性能を損なうことなくウォーターマークを消去するだけでは困難である。
本研究では,新たなデータフリーな透かし除去攻撃であるアテンション・ディトラクション(AD)を導入し,連続学習をカスタマイズして埋め込み透かしを選択的に忘れるようにした。
特にad firstでは、ラベルのないデータを使ってモデルがメインタスクに注意を向ける。
そして、連続学習を通じて、新しいラベルを割り当てられた少数の \textit{lures}(ランダムに選択された自然画像)が、モデルの注意を透かしから遠ざける。
異なるデータセットとネットワークによる実験の結果、adは、メインタスクにおけるモデルのパフォーマンスを損なうことなく、小さなリソース予算でウォーターマークを徹底的に取り除くことができる。
関連論文リスト
- De-mark: Watermark Removal in Large Language Models [59.00698153097887]
我々は、n-gramベースの透かしを効果的に除去するために設計された高度なフレームワークであるDe-markを紹介する。
提案手法は,透かしの強度を評価するために,ランダム選択探索と呼ばれる新しいクエリ手法を利用する。
論文 参考訳(メタデータ) (2024-10-17T17:42:10Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - MEA-Defender: A Robust Watermark against Model Extraction Attack [19.421741149364017]
本稿では,DNNモデルのIPをモデル抽出から保護するための新しい透かし,MEA-Defenderを提案する。
我々は,教師付き学習アルゴリズムと自己教師型学習アルゴリズムに基づいて訓練された5つのデータセットと6つのモデルを用いて,4つのモデル抽出攻撃に関する広範な実験を行った。
実験結果から,MEA-Defenderは様々なモデル抽出攻撃に対して高い堅牢性を示し,様々な透かし除去・検出手法が得られた。
論文 参考訳(メタデータ) (2024-01-26T23:12:53Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。