論文の概要: Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training
- arxiv url: http://arxiv.org/abs/2109.09023v1
- Date: Sat, 18 Sep 2021 22:10:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 07:49:56.850750
- Title: Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training
- Title(参考訳): 反ニューロン透かし:無許可のニューラルモデルトレーニングに対する個人情報保護
- Authors: Zihang Zou, Boqing Gong, Liqiang Wang
- Abstract要約: 個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
- 参考スコア(独自算出の注目度): 50.308254937851814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we raise up an emerging personal data protection problem where
user personal data (e.g. images) could be inappropriately exploited to train
deep neural network models without authorization. To solve this problem, we
revisit traditional watermarking in advanced machine learning settings. By
embedding a watermarking signature using specialized linear color
transformation to user images, neural models will be imprinted with such a
signature if training data include watermarked images. Then, a third-party
verifier can verify potential unauthorized usage by inferring the watermark
signature from neural models. We further explore the desired properties of
watermarking and signature space for convincing verification. Through extensive
experiments, we show empirically that linear color transformation is effective
in protecting user's personal images for various realistic settings. To the
best of our knowledge, this is the first work to protect users' personal data
from unauthorized usage in neural network training.
- Abstract(参考訳): 本稿では,ユーザの個人情報(画像など)を不適切に利用して,許可なくディープニューラルネットワークモデルをトレーニングする,新たなパーソナルデータ保護問題を提起する。
この問題を解決するため、先進的な機械学習環境で従来の透かしを再検討する。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、トレーニングデータが透かし画像を含む場合、ニューラルモデルにそのようなシグネチャを印字する。
そして、第三者検証者は、ニューラルモデルからの透かし署名を推論することにより、潜在的な不正使用を検証することができる。
さらに、検証のための透かしと署名空間の望ましい性質について検討する。
広範にわたる実験を通して,ユーザイメージを様々な現実的な設定で保護する上で,線形色変換が有効であることを示す。
私たちの知る限りでは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業です。
関連論文リスト
- Exploiting Watermark-Based Defense Mechanisms in Text-to-Image Diffusion Models for Unauthorized Data Usage [14.985938758090763]
安定拡散のようなテキストと画像の拡散モデルは、高品質な画像を生成するのに例外的な可能性を示している。
近年の研究では、これらのモデルのトレーニングに不正データを使用することが懸念されており、知的財産権侵害やプライバシー侵害につながる可能性がある。
本稿では,テキスト・ツー・イメージ・モデルに適用された様々な透かしに基づく保護手法のロバスト性について検討する。
論文 参考訳(メタデータ) (2024-11-22T22:28:19Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Protecting the Intellectual Properties of Deep Neural Networks with an
Additional Class and Steganographic Images [7.234511676697502]
本稿では,Deep Neural Network(DNN)モデルの知的特性を,追加のクラスとステガノグラフィー画像を用いて保護する手法を提案する。
我々は,ウォーターマークキー画像にユーザの指紋を埋め込むために,最下位ビット(lsb)画像ステガノグラフィを採用する。
Fashion-MNISTとCIFAR-10データセットでは,100%透かし精度と100%指紋認証成功率が得られる。
論文 参考訳(メタデータ) (2021-04-19T11:03:53Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。