論文の概要: Provable Watermarking for Data Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2510.09210v1
- Date: Fri, 10 Oct 2025 09:45:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.612402
- Title: Provable Watermarking for Data Poisoning Attacks
- Title(参考訳): データポジショニング攻撃の予測可能な透かし
- Authors: Yifan Zhu, Lijia Yu, Xiao-Shan Gao,
- Abstract要約: データ中毒は、伝統的に機械学習システムに対するセキュリティ上の脅威とみなされてきた。
データ中毒に対する2つの実証的および実用的な透かし手法を導入する。
いくつかの攻撃、モデル、データセットの実験を通じて、理論的な結果を検証する。
- 参考スコア(独自算出の注目度): 29.438509701019616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, data poisoning attacks have been increasingly designed to appear harmless and even beneficial, often with the intention of verifying dataset ownership or safeguarding private data from unauthorized use. However, these developments have the potential to cause misunderstandings and conflicts, as data poisoning has traditionally been regarded as a security threat to machine learning systems. To address this issue, it is imperative for harmless poisoning generators to claim ownership of their generated datasets, enabling users to identify potential poisoning to prevent misuse. In this paper, we propose the deployment of watermarking schemes as a solution to this challenge. We introduce two provable and practical watermarking approaches for data poisoning: {\em post-poisoning watermarking} and {\em poisoning-concurrent watermarking}. Our analyses demonstrate that when the watermarking length is $\Theta(\sqrt{d}/\epsilon_w)$ for post-poisoning watermarking, and falls within the range of $\Theta(1/\epsilon_w^2)$ to $O(\sqrt{d}/\epsilon_p)$ for poisoning-concurrent watermarking, the watermarked poisoning dataset provably ensures both watermarking detectability and poisoning utility, certifying the practicality of watermarking under data poisoning attacks. We validate our theoretical findings through experiments on several attacks, models, and datasets.
- Abstract(参考訳): 近年、データ中毒攻撃は、しばしばデータセットの所有権の検証や、不正使用から個人データの保護を意図して、無害で有益に見えるように設計されている。
しかし、これらの発展は誤解や紛争を引き起こす可能性があり、伝統的にデータ中毒は機械学習システムに対するセキュリティ上の脅威とみなされてきた。
この問題に対処するためには、無害な中毒発生装置が生成したデータセットの所有権を主張することが必須であり、ユーザは誤用を防ぐための潜在的な中毒を特定できる。
本稿では,この課題に対する解決策として,透かし方式の展開を提案する。
データ中毒に対する実証的かつ実用的な透かし手法として, ポゾン処理後透かし法と, コンカレント透かし法を2つ導入した。
以上の結果から, 透かしの長さが$\Theta(\sqrt{d}/\epsilon_w)$, $\Theta(1/\epsilon_w^2)$から$O(\sqrt{d}/\epsilon_p)$に該当すると, 透かしによる透かしが検出可能性と有毒性の両方を確実に保証し, データ中毒攻撃下での透かしの実用性を確認した。
いくつかの攻撃、モデル、データセットの実験を通じて、理論的な結果を検証する。
関連論文リスト
- Unified attacks to large language model watermarks: spoofing and scrubbing in unauthorized knowledge distillation [33.394877468499395]
非許可の知識蒸留における双方向攻撃を可能にする統合フレームワークとして,コントラスト復号型知識蒸留(CDG-KD)を提案する。
提案手法では, 学生モデルと弱透かし参照の出力を比較して, 劣化あるいは増幅された透かしテキストを抽出するために, コントラスト復号を用いる。
本研究は, 頑丈で鍛造不可能な透かし方式の開発において, 重要な必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-04-24T12:15:46Z) - Watermarking Graph Neural Networks via Explanations for Ownership Protection [13.93535590008316]
グラフニューラルネットワーク(GNN)は、広汎なグラフデータを学習するための主流の手法である。
GNNを不正使用から保護することは依然として課題である。
オーナーシップ情報をモデルに埋め込むウォーターマーキングは潜在的な解決策である。
論文 参考訳(メタデータ) (2025-01-09T23:25:06Z) - PoisonCatcher: Revealing and Identifying LDP Poisoning Attacks in IIoT [13.68394346583211]
ローカル微分プライバシー(LDP)は、軽量で分散化されスケーラブルであるため、産業用IoT(Industrial Internet of Things)で広く採用されている。
本研究は,資源豊富なアグリゲータにおけるIIoTに対するLDP中毒防御法を提案する。
論文 参考訳(メタデータ) (2024-12-20T09:26:50Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。