論文の概要: Invisible Watermarking for Audio Generation Diffusion Models
- arxiv url: http://arxiv.org/abs/2309.13166v1
- Date: Fri, 22 Sep 2023 20:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:53:41.368949
- Title: Invisible Watermarking for Audio Generation Diffusion Models
- Title(参考訳): 音響生成拡散モデルに対する可視な透かし
- Authors: Xirong Cao, Xiang Li, Divyesh Jadav, Yanzhao Wu, Zhehui Chen, Chen
Zeng, Wenqi Wei
- Abstract要約: 本稿では,メル-スペクトログラムで学習した音声拡散モデルに適用した最初の透かし手法を提案する。
我々のモデルは、良質な音声生成だけでなく、モデル検証のための目に見えない透かしトリガー機構も備えている。
- 参考スコア(独自算出の注目度): 11.901028740065662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have gained prominence in the image domain for their
capabilities in data generation and transformation, achieving state-of-the-art
performance in various tasks in both image and audio domains. In the rapidly
evolving field of audio-based machine learning, safeguarding model integrity
and establishing data copyright are of paramount importance. This paper
presents the first watermarking technique applied to audio diffusion models
trained on mel-spectrograms. This offers a novel approach to the aforementioned
challenges. Our model excels not only in benign audio generation, but also
incorporates an invisible watermarking trigger mechanism for model
verification. This watermark trigger serves as a protective layer, enabling the
identification of model ownership and ensuring its integrity. Through extensive
experiments, we demonstrate that invisible watermark triggers can effectively
protect against unauthorized modifications while maintaining high utility in
benign audio generation tasks.
- Abstract(参考訳): 拡散モデルは、画像領域において、データ生成と変換の能力で注目され、画像領域と音声領域の両方の様々なタスクで最先端のパフォーマンスを達成している。
音声ベースの機械学習の分野では、モデルの完全性とデータ著作権の確立の保護が最重要となる。
本稿では,メルスペクトログラムを用いた音響拡散モデルに適用する最初の透かし手法を提案する。
これは上記の課題に対する新しいアプローチを提供する。
我々のモデルは、良質な音声生成だけでなく、モデル検証のための目に見えない透かしトリガー機構も備えている。
この透かしトリガーは保護層として機能し、モデルのオーナシップを識別し、その完全性を保証する。
広範囲な実験を通じて,不可視透かしトリガーが無許可な修正に対して効果的に保護し,良性な音声生成タスクにおいて高い実用性を維持することを実証した。
関連論文リスト
- Adaptive and robust watermark against model extraction attack [47.744465701960806]
本稿では,追加モジュールを訓練せずにモデル抽出攻撃に抵抗する,プラグアンドプレイIP保護透かし手法であるPromptShieldを提案する。
提案手法では,モデルの内部ロジットへのアクセスを必要とせず,プロンプト誘導キューを用いたモデル分布の変更を最小限に抑える。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - Gaussian Shading: Provable Performance-Lossless Image Watermarking for Diffusion Models [71.13610023354967]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,性能ロスレスかつトレーニング不要な拡散モデル透かし手法を提案する。
論文 参考訳(メタデータ) (2024-04-07T13:30:10Z) - A Watermark-Conditioned Diffusion Model for IP Protection [31.969286898467985]
拡散モデルにおけるコンテンツ著作権保護のための統一的な透かしフレームワークを提案する。
そこで我々はWaDiffと呼ばれるWadmark条件付き拡散モデルを提案する。
本手法は,検出タスクと所有者識別タスクの両方において有効かつ堅牢である。
論文 参考訳(メタデータ) (2024-03-16T11:08:15Z) - Active Generation for Image Classification [50.18107721267218]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Unified High-binding Watermark for Unconditional Image Generation Models [7.4037644261198885]
攻撃者はターゲットモデルの出力画像を盗み、トレーニングデータの一部として使用して、プライベート代理UIGモデルをトレーニングすることができる。
高結合効果を有する2段階統一透かし検証機構を提案する。
実験では、ほぼゼロの偽陽性率で検証作業を完了できることを示した。
論文 参考訳(メタデータ) (2023-10-14T03:26:21Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Intellectual Property Protection of Diffusion Models via the Watermark
Diffusion Process [22.38407658885059]
本稿では,タスク生成時に透かしを印字せずに拡散モデルに新しい透かし手法であるWDMを紹介する。
タスク生成のための標準的な拡散プロセスと並行して、透かしを埋め込むための透かし拡散プロセス(WDP)を同時に学習するモデルを訓練する。
論文 参考訳(メタデータ) (2023-06-06T06:31:07Z) - Speech Pattern based Black-box Model Watermarking for Automatic Speech
Recognition [83.2274907780273]
音声認識モデルのためのブラックボックス透かし方式を設計する方法はまだ未解決の問題である。
ASRモデルのIPを保護するための最初のブラックボックスモデル透かしフレームワークを提案する。
最先端のオープンソースASRシステムであるDeepSpeechの実験は、提案された透かし方式の有効性を実証している。
論文 参考訳(メタデータ) (2021-10-19T09:01:41Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。