論文の概要: Evaluation of Security of ML-based Watermarking: Copy and Removal Attacks
- arxiv url: http://arxiv.org/abs/2409.18211v1
- Date: Thu, 26 Sep 2024 18:44:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-01 06:57:47.454025
- Title: Evaluation of Security of ML-based Watermarking: Copy and Removal Attacks
- Title(参考訳): MLによる透かしの安全性評価:コピーと除去攻撃
- Authors: Vitaliy Kinakh, Brian Pulfer, Yury Belousov, Pierre Fernandez, Teddy Furon, Slava Voloshynovskiy,
- Abstract要約: デジタル透かしはこれらの課題に対処するための重要なアプローチである。
本稿では,逆埋め込み技術を用いた基礎モデルの潜時空間デジタル透かしシステムのセキュリティ評価を行う。
- 参考スコア(独自算出の注目度): 12.898088696134705
- License:
- Abstract: The vast amounts of digital content captured from the real world or AI-generated media necessitate methods for copyright protection, traceability, or data provenance verification. Digital watermarking serves as a crucial approach to address these challenges. Its evolution spans three generations: handcrafted, autoencoder-based, and foundation model based methods. %Its evolution spans three generations: handcrafted methods, autoencoder-based schemes, and methods based on foundation models. While the robustness of these systems is well-documented, the security against adversarial attacks remains underexplored. This paper evaluates the security of foundation models' latent space digital watermarking systems that utilize adversarial embedding techniques. A series of experiments investigate the security dimensions under copy and removal attacks, providing empirical insights into these systems' vulnerabilities. All experimental codes and results are available at https://github.com/vkinakh/ssl-watermarking-attacks}{repository
- Abstract(参考訳): 現実世界やAIが生成したメディアから取得した膨大な量のデジタルコンテンツは、著作権保護、トレーサビリティ、データ証明の方法を必要とする。
デジタル透かしはこれらの課題に対処するための重要なアプローチである。
その進化は、手作り、オートエンコーダベース、基礎モデルベースメソッドの3世代に及ぶ。
% Itsの進化は、手作りの方法、オートエンコーダベースのスキーム、基礎モデルに基づく方法の3世代にまたがる。
これらのシステムの堅牢性は十分に文書化されているが、敵の攻撃に対するセキュリティは未解明のままである。
本稿では,逆埋め込み技術を用いた基礎モデルの潜時空間デジタル透かしシステムのセキュリティ評価を行う。
一連の実験は、コピーと削除攻撃の下でのセキュリティの次元を調査し、これらのシステムの脆弱性に関する実証的な洞察を提供する。
すべての実験コードと結果はhttps://github.com/vkinakh/ssl-watermarking- attacks}{repositoryで公開されている。
関連論文リスト
- Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Adaptive and robust watermark against model extraction attack [0.0]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Blind Deep-Learning-Based Image Watermarking Robust Against Geometric
Transformations [6.948186032020995]
提案手法は,透かし符号化と復号化にディープラーニングを用いた既存のHiDDeNアーキテクチャに基づいている。
私たちは、このアーキテクチャに新しいノイズ層、すなわち、微分可能なJPEG推定、回転、再スケーリング、翻訳、せん断、ミラーリングを追加します。
提案手法は,消費者の端末で見た画像の保護に利用することができる。
論文 参考訳(メタデータ) (2024-02-14T10:18:00Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - SoK: How Robust is Image Classification Deep Neural Network
Watermarking? (Extended Version) [16.708069984516964]
我々は,最近提案された,ロバスト性を主張する透かし方式が,大規模な除去攻撃に対して堅牢であるか否かを評価する。
調査されたウォーターマーキングスキームのいずれも、実際のデータセットでは堅牢ではない。
我々は,より現実的な敵モデルを用いて,より広範囲にわたる除去攻撃に対して,透かし方式を評価する必要があることを示す。
論文 参考訳(メタデータ) (2021-08-11T00:23:33Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。