論文の概要: Watermarking Training Data of Music Generation Models
- arxiv url: http://arxiv.org/abs/2412.08549v2
- Date: Thu, 12 Dec 2024 10:49:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:30:39.801755
- Title: Watermarking Training Data of Music Generation Models
- Title(参考訳): 音楽生成モデルの透かし学習データ
- Authors: Pascal Epple, Igor Shilov, Bozhidar Stevanoski, Yves-Alexandre de Montjoye,
- Abstract要約: 本研究では,音声透かし技術を用いてコンテンツの不正使用を検知する方法について検討する。
非透かしデータでトレーニングされたモデルと非透かしデータでトレーニングされたモデルで生成された出力を比較した。
以上の結果から,人間には認識できないものを含む音声透かし技術が,モデル出力の顕著な変化を引き起こす可能性が示唆された。
- 参考スコア(独自算出の注目度): 6.902279764206365
- License:
- Abstract: Generative Artificial Intelligence (Gen-AI) models are increasingly used to produce content across domains, including text, images, and audio. While these models represent a major technical breakthrough, they gain their generative capabilities from being trained on enormous amounts of human-generated content, which often includes copyrighted material. In this work, we investigate whether audio watermarking techniques can be used to detect an unauthorized usage of content to train a music generation model. We compare outputs generated by a model trained on watermarked data to a model trained on non-watermarked data. We study factors that impact the model's generation behaviour: the watermarking technique, the proportion of watermarked samples in the training set, and the robustness of the watermarking technique against the model's tokenizer. Our results show that audio watermarking techniques, including some that are imperceptible to humans, can lead to noticeable shifts in the model's outputs. We also study the robustness of a state-of-the-art watermarking technique to removal techniques.
- Abstract(参考訳): ジェネレーティブ・人工知能(Gen-AI)モデルは、テキスト、画像、オーディオを含む領域間でコンテンツを生成するためにますます使われている。
これらのモデルは、主要な技術的ブレークスルーを示す一方で、著作権のある素材を含む膨大な量の人為的コンテンツをトレーニングすることで、生成能力を得る。
本研究では,音声透かし技術を用いて,音楽生成モデルの学習に不許可なコンテンツの使用を検出できるかどうかを検討する。
非透かしデータでトレーニングされたモデルと非透かしデータでトレーニングされたモデルで生成された出力を比較した。
モデルの生成行動に影響を与える要因として,透かし手法,トレーニングセットにおける透かしサンプルの割合,モデルのトークン化に対する透かし手法の堅牢性について検討した。
以上の結果から,人間には認識できないものを含む音声透かし技術が,モデル出力の顕著な変化を引き起こす可能性が示唆された。
また,除去技術に対する最先端透かし技術の堅牢性についても検討した。
関連論文リスト
- Dynamic watermarks in images generated by diffusion models [46.1135899490656]
高忠実度テキストから画像への拡散モデルが視覚コンテンツ生成に革命をもたらしたが、その普及は重大な倫理的懸念を提起している。
本稿では,拡散モデルのための新しい多段階透かしフレームワークを提案する。
我々の研究は、モデルオーナシップの検証と誤用防止のためのスケーラブルなソリューションを提供することで、AI生成コンテンツセキュリティの分野を前進させます。
論文 参考訳(メタデータ) (2025-02-13T03:23:17Z) - Image Watermarking of Generative Diffusion Models [42.982489491857145]
拡散モデル自体に透かしの特徴を埋め込む透かし手法を提案する。
本手法は,エンド・ツー・エンド・エンド・プロセスで学習した生成モデルに対して,ペア型透かし抽出器の訓練を可能にする。
高精度な透かし埋め込み/検出を実証し,本手法に埋め込まれた異なる透かしを区別し,生成モデルの区別を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2025-02-12T09:00:48Z) - Watermarking across Modalities for Content Tracing and Generative AI [2.456311843339488]
この論文には、画像、オーディオ、テキストのための新しい透かし技術の開発が含まれている。
まず,ソーシャルプラットフォーム上で画像の能動的モデレーションを行う手法を紹介する。
そして、AI生成コンテンツのための特定の技術を開発する。
論文 参考訳(メタデータ) (2025-02-04T18:49:50Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計された新しいフレームワークである。
モデルは、学習したセマンティック概念から透かし情報を切り離し、埋め込み透かしを保持することができる。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - ProMark: Proactive Diffusion Watermarking for Causal Attribution [25.773438257321793]
本稿では,因果帰属手法であるProMarkを提案する。
概念情報は、知覚不能な透かしを用いて入力訓練画像に積極的に埋め込まれる。
トレーニングデータに最大216ドルのユニークな透かしを埋め込むことができ、各トレーニング画像には複数の透かしが含まれています。
論文 参考訳(メタデータ) (2024-03-14T23:16:43Z) - On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Invisible Watermarking for Audio Generation Diffusion Models [11.901028740065662]
本稿では,メル-スペクトログラムで学習した音声拡散モデルに適用した最初の透かし手法を提案する。
我々のモデルは、良質な音声生成だけでなく、モデル検証のための目に見えない透かしトリガー機構も備えている。
論文 参考訳(メタデータ) (2023-09-22T20:10:46Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。