論文の概要: Watermarking Training Data of Music Generation Models
- arxiv url: http://arxiv.org/abs/2412.08549v1
- Date: Wed, 11 Dec 2024 17:10:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:00:41.327223
- Title: Watermarking Training Data of Music Generation Models
- Title(参考訳): 音楽生成モデルの透かし学習データ
- Authors: Pascal Epple, Igor Shilov, Bozhidar Stevanovski, Yves-Alexandre de Montjoye,
- Abstract要約: 本研究では,音声透かし技術を用いてコンテンツの不正使用を検知する方法について検討する。
非透かしデータでトレーニングされたモデルと非透かしデータでトレーニングされたモデルで生成された出力を比較した。
以上の結果から,人間には認識できないものを含む音声透かし技術が,モデル出力の顕著な変化を引き起こす可能性が示唆された。
- 参考スコア(独自算出の注目度): 6.902279764206365
- License:
- Abstract: Generative Artificial Intelligence (Gen-AI) models are increasingly used to produce content across domains, including text, images, and audio. While these models represent a major technical breakthrough, they gain their generative capabilities from being trained on enormous amounts of human-generated content, which often includes copyrighted material. In this work, we investigate whether audio watermarking techniques can be used to detect an unauthorized usage of content to train a music generation model. We compare outputs generated by a model trained on watermarked data to a model trained on non-watermarked data. We study factors that impact the model's generation behaviour: the watermarking technique, the proportion of watermarked samples in the training set, and the robustness of the watermarking technique against the model's tokenizer. Our results show that audio watermarking techniques, including some that are imperceptible to humans, can lead to noticeable shifts in the model's outputs. We also study the robustness of a state-of-the-art watermarking technique to removal techniques.
- Abstract(参考訳): ジェネレーティブ・人工知能(Gen-AI)モデルは、テキスト、画像、オーディオを含む領域間でコンテンツを生成するためにますます使われている。
これらのモデルは、主要な技術的ブレークスルーを示す一方で、著作権のある素材を含む膨大な量の人為的コンテンツをトレーニングすることで、生成能力を得る。
本研究では,音声透かし技術を用いて,音楽生成モデルの学習に不許可なコンテンツの使用を検出できるかどうかを検討する。
非透かしデータでトレーニングされたモデルと非透かしデータでトレーニングされたモデルで生成された出力を比較した。
モデルの生成行動に影響を与える要因として,透かし手法,トレーニングセットにおける透かしサンプルの割合,モデルのトークン化に対する透かし手法の堅牢性について検討した。
以上の結果から,人間には認識できないものを含む音声透かし技術が,モデル出力の顕著な変化を引き起こす可能性が示唆された。
また,除去技術に対する最先端透かし技術の堅牢性についても検討した。
関連論文リスト
- How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - ProMark: Proactive Diffusion Watermarking for Causal Attribution [25.773438257321793]
本稿では,因果帰属手法であるProMarkを提案する。
概念情報は、知覚不能な透かしを用いて入力訓練画像に積極的に埋め込まれる。
トレーニングデータに最大216ドルのユニークな透かしを埋め込むことができ、各トレーニング画像には複数の透かしが含まれています。
論文 参考訳(メタデータ) (2024-03-14T23:16:43Z) - On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Invisible Watermarking for Audio Generation Diffusion Models [11.901028740065662]
本稿では,メル-スペクトログラムで学習した音声拡散モデルに適用した最初の透かし手法を提案する。
我々のモデルは、良質な音声生成だけでなく、モデル検証のための目に見えない透かしトリガー機構も備えている。
論文 参考訳(メタデータ) (2023-09-22T20:10:46Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Set-Membership Inference Attacks using Data Watermarking [21.69169876101301]
深層画像透かしを用いた生成モデルに対するセットメンバーシップ推論攻撃を提案する。
実験の結果,提案手法は画像データの非合意的利用を検出するための原則的手法であることがわかった。
論文 参考訳(メタデータ) (2023-06-22T06:47:56Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Robust Black-box Watermarking for Deep NeuralNetwork using Inverse
Document Frequency [1.2502377311068757]
テキストドメイン用に設計されたディープニューラルネットワーク(DNN)モデルを透かし出すためのフレームワークを提案する。
提案した埋め込み手順はモデルのトレーニング時間内に行われ、透かし検証ステージが簡単になる。
実験の結果, 透かし付きモデルでは, 元のモデルと同じ精度を示した。
論文 参考訳(メタデータ) (2021-03-09T17:56:04Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。