論文の概要: Evaluation of Security of ML-based Watermarking: Copy and Removal Attacks
- arxiv url: http://arxiv.org/abs/2409.18211v1
- Date: Fri, 4 Oct 2024 18:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 15:21:45.178383
- Title: Evaluation of Security of ML-based Watermarking: Copy and Removal Attacks
- Title(参考訳): MLによる透かしの安全性評価:コピーと除去攻撃
- Authors: Vitaliy Kinakh, Brian Pulfer, Yury Belousov, Pierre Fernandez, Teddy Furon, Slava Voloshynovskiy,
- Abstract要約: デジタル透かしはこれらの課題に対処するための重要なアプローチである。
本稿では,逆埋め込み技術を用いた基礎モデルの潜時空間デジタル透かしシステムのセキュリティ評価を行う。
- 参考スコア(独自算出の注目度): 12.898088696134705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vast amounts of digital content captured from the real world or AI-generated media necessitate methods for copyright protection, traceability, or data provenance verification. Digital watermarking serves as a crucial approach to address these challenges. Its evolution spans three generations: handcrafted, autoencoder-based, and foundation model based methods. %Its evolution spans three generations: handcrafted methods, autoencoder-based schemes, and methods based on foundation models. While the robustness of these systems is well-documented, the security against adversarial attacks remains underexplored. This paper evaluates the security of foundation models' latent space digital watermarking systems that utilize adversarial embedding techniques. A series of experiments investigate the security dimensions under copy and removal attacks, providing empirical insights into these systems' vulnerabilities. All experimental codes and results are available at https://github.com/vkinakh/ssl-watermarking-attacks}{repository
- Abstract(参考訳): 現実世界やAIが生成したメディアから取得した膨大な量のデジタルコンテンツは、著作権保護、トレーサビリティ、データ証明の方法を必要とする。
デジタル透かしはこれらの課題に対処するための重要なアプローチである。
その進化は、手作り、オートエンコーダベース、基礎モデルベースメソッドの3世代に及ぶ。
% Itsの進化は、手作りの方法、オートエンコーダベースのスキーム、基礎モデルに基づく方法の3世代にまたがる。
これらのシステムの堅牢性は十分に文書化されているが、敵の攻撃に対するセキュリティは未解明のままである。
本稿では,逆埋め込み技術を用いた基礎モデルの潜時空間デジタル透かしシステムのセキュリティ評価を行う。
一連の実験は、コピーと削除攻撃の下でのセキュリティの次元を調査し、これらのシステムの脆弱性に関する実証的な洞察を提供する。
すべての実験コードと結果はhttps://github.com/vkinakh/ssl-watermarking- attacks}{repositoryで公開されている。
関連論文リスト
- On the Weaknesses of Backdoor-based Model Watermarking: An Information-theoretic Perspective [39.676548104635096]
機械学習モデルの知的財産権の保護は、AIセキュリティの急激な懸念として浮上している。
モデルウォーターマーキングは、機械学習モデルのオーナシップを保護するための強力なテクニックである。
本稿では,既存の手法の限界を克服するため,新しいウォーターマーク方式であるIn-distriion Watermark Embedding (IWE)を提案する。
論文 参考訳(メタデータ) (2024-09-10T00:55:21Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - EPASAD: Ellipsoid decision boundary based Process-Aware Stealthy Attack
Detector [9.002791610276834]
PASADでマイクロステルス攻撃を検出する技術を改善するEPASADを提案する。
EPASAD法は楕円体境界を用いてこれを克服し,様々な次元の境界をきつくする。
その結果、EPASADはPASADの平均リコールを5.8%改善し、2つのデータセットに対して9.5%改善した。
論文 参考訳(メタデータ) (2022-04-08T16:06:10Z) - SoK: How Robust is Image Classification Deep Neural Network
Watermarking? (Extended Version) [16.708069984516964]
我々は,最近提案された,ロバスト性を主張する透かし方式が,大規模な除去攻撃に対して堅牢であるか否かを評価する。
調査されたウォーターマーキングスキームのいずれも、実際のデータセットでは堅牢ではない。
我々は,より現実的な敵モデルを用いて,より広範囲にわたる除去攻撃に対して,透かし方式を評価する必要があることを示す。
論文 参考訳(メタデータ) (2021-08-11T00:23:33Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。