論文の概要: Assessing the Effectiveness of Membership Inference on Generative Music
- arxiv url: http://arxiv.org/abs/2512.21762v1
- Date: Thu, 25 Dec 2025 18:54:16 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:52:21.444276
- Title: Assessing the Effectiveness of Membership Inference on Generative Music
- Title(参考訳): 生成音楽におけるメンバーシップ推論の有効性の評価
- Authors: Kurtis Chow, Omar Samiullah, Vinesh Sridhar, Hewen Zhang,
- Abstract要約: 本研究は,人気・影響力のある生成音楽モデルであるMuseGANに対するいくつかの既存攻撃の効果について考察する。
生成音声MIAに関する以前の研究と同様に、音楽データには既知のメンバーシップ推論技術にかなり耐性があることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Generative AI systems are quickly improving, now able to produce believable output in several modalities including images, text, and audio. However, this fast development has prompted increased scrutiny concerning user privacy and the use of copyrighted works in training. A recent attack on machine-learning models called membership inference lies at the crossroads of these two concerns. The attack is given as input a set of records and a trained model and seeks to identify which of those records may have been used to train the model. On one hand, this attack can be used to identify user data used to train a model, which may violate their privacy especially in sensitive applications such as models trained on medical data. On the other hand, this attack can be used by rights-holders as evidence that a company used their works without permission to train a model. Remarkably, it appears that no work has studied the effect of membership inference attacks (MIA) on generative music. Given that the music industry is worth billions of dollars and artists would stand to gain from being able to determine if their works were being used without permission, we believe this is a pressing issue to study. As such, in this work we begin a preliminary study into whether MIAs are effective on generative music. We study the effect of several existing attacks on MuseGAN, a popular and influential generative music model. Similar to prior work on generative audio MIAs, our findings suggest that music data is fairly resilient to known membership inference techniques.
- Abstract(参考訳): 生成AIシステムは急速に改善され、画像、テキスト、オーディオなど、さまざまなモダリティで実行可能な出力を生成することができる。
しかし、この急速な発展は、ユーザプライバシとトレーニングにおける著作権付き作品の使用に関する精査を強めている。
メンバーシップ推論と呼ばれる機械学習モデルに対する最近の攻撃は、これらの2つの懸念の交差点にある。
攻撃は一連のレコードと訓練されたモデルの入力として与えられ、モデルのトレーニングにどのレコードを使用したかを特定する。
一方、この攻撃は、モデルのトレーニングに使用されるユーザデータを識別するために使用することができ、特に医療データでトレーニングされたモデルのような機密性の高いアプリケーションにおいて、モデルのプライバシを侵害する可能性がある。
一方、この攻撃は、企業がモデルを訓練する許可なく自分の作品を使っていたという証拠として、権利保有者が利用することができる。
注目すべきは、メンバーシップ・推論・アタック(MIA)が生成音楽に与える影響を研究していないことである。
音楽業界には数十億ドルの価値があり、アーティストは自分の作品が無許可で使われているかどうかを判断できるようになるだろう。
そこで本研究では,MIAが生成音楽に有効かどうかを予備研究する。
本研究は,人気・影響力のある生成音楽モデルであるMuseGANに対するいくつかの既存攻撃の効果について考察する。
生成音声MIAに関する以前の研究と同様に、音楽データには既知のメンバーシップ推論技術にかなり耐性があることが示唆された。
関連論文リスト
- Membership and Dataset Inference Attacks on Large Audio Generative Models [17.763094810756247]
生成的オーディオモデルは、しばしば芸術作品や商業作品の膨大なコーパスで訓練される。
中心的な疑問は、アーティストの素材がトレーニングに含まれているかどうかを確実に検証できるかどうかであり、それによって著作権保有者がコンテンツを保護できる手段を提供する。
本研究では,オープンソースの生成音声モデルに対するメンバシップ推論攻撃による検証の実現可能性について検討する。
論文 参考訳(メタデータ) (2025-12-10T13:50:00Z) - Let Network Decide What to Learn: Symbolic Music Understanding Model Based on Large-scale Adversarial Pre-training [2.61072980439312]
マスク言語モデル(MLM)は、自然言語処理(NLP)における人種差別差別のようなバイアス問題を導入するかもしれない
本稿では,ランダムマスキングではなく,マスカネットワークを介してマスクすべきものを適応的に決定する,SMU用Adversarial-MidiBERTを提案する。
提案手法は4つのSMUタスクにまたがって評価し,全てのケースにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-11T08:54:38Z) - Music Era Recognition Using Supervised Contrastive Learning and Artist Information [11.126020721501956]
音楽時代情報は、プレイリストの生成とレコメンデーションにとって重要な機能である。
音声から年齢を予測するために,音声に基づくモデルを開発した。
アーティスト情報が入手可能な場合には,マルチモーダル入力を受信するための音声モデルを拡張し,マルチモーダルコントラスト学習(MMC)と呼ばれるフレームワークを開発し,トレーニングを強化する。
論文 参考訳(メタデータ) (2024-07-07T13:43:55Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Noise Masking Attacks and Defenses for Pretrained Speech Models [22.220812007048423]
音声モデルは、モデルパフォーマンスを改善するために、しばしば機密データに基づいて訓練される。
Amidらによって導入されたノイズマスキング攻撃は,音声の書き起こしを部分的にノイズに置き換えることで自動音声認識(ASR)モデルを攻撃する。
我々はこれらの攻撃をASRモデルを超えて拡張し、事前訓練された音声エンコーダを攻撃する。
論文 参考訳(メタデータ) (2024-04-02T15:49:03Z) - Exploring Musical Roots: Applying Audio Embeddings to Empower Influence
Attribution for a Generative Music Model [6.476298483207895]
そこで我々は,学習データの属性を理解するのに有用な方法で,類似した楽曲を識別する手法を開発した。
VampNetのトレーニングに使用した500万本のオーディオクリップにおいて,CLMRとCLAPの埋め込みを類似度測定と比較した。
この作業は、自動的なインフルエンス属性を生成モデルに組み込むことで、モデル作成者とユーザが無知な予算から情報生成に移行することを約束する。
論文 参考訳(メタデータ) (2024-01-25T22:20:42Z) - MERT: Acoustic Music Understanding Model with Large-Scale Self-supervised Training [74.32603591331718]
本稿では,MLMスタイルの音響事前学習において,教師モデルと擬似ラベルを組み込んだ大規模自己教師型学習(MERT)を用いた音響音楽理解モデルを提案する。
実験結果から,本モデルでは14曲の楽曲理解タスクを一般化し,性能を向上し,SOTA(State-of-the-art)全体のスコアを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T18:27:43Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。