論文の概要: Decoding Musical Origins: Distinguishing Human and AI Composers
- arxiv url: http://arxiv.org/abs/2509.11369v1
- Date: Sun, 14 Sep 2025 17:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.053962
- Title: Decoding Musical Origins: Distinguishing Human and AI Composers
- Title(参考訳): 音楽の起源をデコードする:人間とAIの作曲家の排除
- Authors: Cheng-Yang Tsai, Tzu-Wei Huang, Shao-Yu Wei, Guan-Wei Chen, Hung-Ying Chu, Yu-Cheng Lin,
- Abstract要約: YNoteは、新しい機械学習フレンドリーな音楽表記システムである。
我々は、音楽が人間によって構成されているかどうかを識別できる効果的な分類モデルを訓練する。
このモデルは98.25%の精度を達成し、YNoteが十分なスタイリスティックな情報を保持することを示すことに成功した。
- 参考スコア(独自算出の注目度): 0.6246322794612152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of Large Language Models (LLMs), AI-driven music generation has become a vibrant and fruitful area of research. However, the representation of musical data remains a significant challenge. To address this, a novel, machine-learning-friendly music notation system, YNote, was developed. This study leverages YNote to train an effective classification model capable of distinguishing whether a piece of music was composed by a human (Native), a rule-based algorithm (Algorithm Generated), or an LLM (LLM Generated). We frame this as a text classification problem, applying the Term Frequency-Inverse Document Frequency (TF-IDF) algorithm to extract structural features from YNote sequences and using the Synthetic Minority Over-sampling Technique (SMOTE) to address data imbalance. The resulting model achieves an accuracy of 98.25%, successfully demonstrating that YNote retains sufficient stylistic information for analysis. More importantly, the model can identify the unique " technological fingerprints " left by different AI generation techniques, providing a powerful tool for tracing the origins of AI-generated content.
- Abstract(参考訳): LLM(Large Language Models)の急速な進歩により、AIによる音楽生成は活気があり実りある研究領域となっている。
しかし、音楽データの表現は依然として大きな課題である。
これを解決するために,YNoteという,機械学習に親しみやすい新しい表記法を開発した。
本研究は、YNoteを利用して、楽曲が人間(Native)、ルールベースアルゴリズム(Algorithm Generated)、LLM(LLM Generated)によって構成されたかを識別できる効果的な分類モデルを訓練する。
我々はこれをテキスト分類問題として、TF-IDF(Term Frequency-Inverse Document Frequency)アルゴリズムを用いてYNote配列から構造的特徴を抽出し、SMOTE(Synthetic Minority Over-Sampling Technique)を用いてデータの不均衡に対処する。
得られたモデルは98.25%の精度を達成し、YNoteが解析に十分なスタイリスティックな情報を保持することを示すことに成功した。
さらに重要なのは、AI生成技術が残したユニークな“技術指紋”を識別し、AI生成コンテンツの起源をトレースする強力なツールを提供することだ。
関連論文リスト
- A New Dataset, Notation Software, and Representation for Computational Schenkerian Analysis [20.718872433254806]
シェーンケリアン分析(Schenkerian Analysis、SchA)は、メロディ、ハーモニー、カウンターポイント、フォームの要素を組み合わせて、音楽作品を支える階層構造を記述する音楽分析の手法である。
SchAはコンピュータ音楽コミュニティによって利用されることはめったにない。
シェンカーデータのより大きなコーパスにより、音楽構造をより深く理解した機械学習モデルを注入することができ、より「人間的」な結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-08-13T19:52:06Z) - MuPT: A Generative Symbolic Music Pretrained Transformer [56.09299510129221]
音楽の事前学習におけるLarge Language Models (LLM) の適用について検討する。
生成過程の異なるトラックからの不整合対策に関連する課題に対処するために,SMT-ABC Notation(Synchronized Multi-Track ABC Notation)を提案する。
私たちのコントリビューションには、最大8192個のトークンを処理可能な一連のモデルが含まれており、トレーニングセットの象徴的な音楽データの90%をカバーしています。
論文 参考訳(メタデータ) (2024-04-09T15:35:52Z) - Automatic Time Signature Determination for New Scores Using Lyrics for
Latent Rhythmic Structure [0.0]
本稿では,歌詞のみを入力として使用する新しいアプローチを提案する。
本稿では, 実験結果から, 受信器動作特性(ROC)の97.6%のF1スコアと0.996のAUC(Area Under the Curve)スコアが得られた。
論文 参考訳(メタデータ) (2023-11-27T01:44:02Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Cadence Detection in Symbolic Classical Music using Graph Neural
Networks [7.817685358710508]
本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
論文 参考訳(メタデータ) (2022-08-31T12:39:57Z) - Research on AI Composition Recognition Based on Music Rules [7.699648754969773]
モーメント抽出による楽曲ルール識別アルゴリズムを構築する。
それは、機械生成音楽のモードの安定性を特定し、それが人工知能であるかどうかを判断する。
論文 参考訳(メタデータ) (2020-10-15T14:51:24Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。