論文の概要: Research on AI Composition Recognition Based on Music Rules
- arxiv url: http://arxiv.org/abs/2010.07805v1
- Date: Thu, 15 Oct 2020 14:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:10:49.868142
- Title: Research on AI Composition Recognition Based on Music Rules
- Title(参考訳): 音楽ルールに基づくai合成認識に関する研究
- Authors: Yang Deng, Ziyao Xu, Li Zhou, Huanping Liu, Anqi Huang
- Abstract要約: モーメント抽出による楽曲ルール識別アルゴリズムを構築する。
それは、機械生成音楽のモードの安定性を特定し、それが人工知能であるかどうかを判断する。
- 参考スコア(独自算出の注目度): 7.699648754969773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of artificial intelligent composition has resulted in the
increasing popularity of machine-generated pieces, with frequent copyright
disputes consequently emerging. There is an insufficient amount of research on
the judgement of artificial and machine-generated works; the creation of a
method to identify and distinguish these works is of particular importance.
Starting from the essence of the music, the article constructs a
music-rule-identifying algorithm through extracting modes, which will identify
the stability of the mode of machine-generated music, to judge whether it is
artificial intelligent. The evaluation datasets used are provided by the
Conference on Sound and Music Technology(CSMT). Experimental results
demonstrate the algorithm to have a successful distinguishing ability between
datasets with different source distributions. The algorithm will also provide
some technological reference to the benign development of the music copyright
and artificial intelligent music.
- Abstract(参考訳): 人工知能による構成が発達し、機械生成作品の人気が高まり、著作権論争が頻発した。
人工的・機械的作品の判断に関する研究は不十分であり、これらの作品を特定し識別する手法の作成は特に重要である。
音楽の本質から、本論文は、機械生成音楽のモードの安定性を識別するモードを抽出し、それが人工知能であるかどうかを判断する音楽ルール識別アルゴリズムを構築する。
評価データセットは、CSMT(Conference on Sound and Music Technology)によって提供される。
実験結果から、異なるソース分布を持つデータセット間での識別が成功することを示す。
このアルゴリズムはまた、音楽著作権と人工知能音楽の良質な発展に関する技術的言及も提供する。
関連論文リスト
- Generating High-quality Symbolic Music Using Fine-grained Discriminators [42.200747558496055]
本稿では,メロディとリズムを音楽から分離し,それに対応する微粒な識別器を設計することを提案する。
具体的には、ピッチ増強戦略を備えるメロディ判別器は、生成されたサンプルによって提示されるメロディ変動を識別する。
バーレベルの相対的な位置エンコーディングで強化されたリズム判別器は、生成された音符の速度に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-03T07:32:21Z) - Towards Assessing Data Replication in Music Generation with Music Similarity Metrics on Raw Audio [25.254669525489923]
データ複製を評価するために,様々なオーディオ音楽類似度指標に基づくモデル非依存のオープン評価手法を提案する。
提案手法は,10%以上の比率で正確なデータ複製を推定できることを示す。
論文 参考訳(メタデータ) (2024-07-19T14:52:11Z) - MARBLE: Music Audio Representation Benchmark for Universal Evaluation [79.25065218663458]
我々は,UniversaL Evaluation(MARBLE)のための音楽音響表現ベンチマークを紹介する。
音響、パフォーマンス、スコア、ハイレベルな記述を含む4つの階層レベルを持つ包括的分類を定義することで、様々な音楽情報検索(MIR)タスクのベンチマークを提供することを目的としている。
次に、8つの公開データセット上の14のタスクに基づいて統一されたプロトコルを構築し、ベースラインとして音楽録音で開発されたすべてのオープンソース事前学習モデルの表現を公平かつ標準的に評価する。
論文 参考訳(メタデータ) (2023-06-18T12:56:46Z) - Quantized GAN for Complex Music Generation from Dance Videos [48.196705493763986]
D2M-GAN(Dance2Music-GAN, D2M-GAN, D2M-GAN)は、ダンスビデオに条件付けされた楽曲のサンプルを生成する新しいマルチモーダルフレームワークである。
提案フレームワークは,ダンスビデオフレームと人体の動きを入力とし,対応する入力に付随する音楽サンプルを生成することを学習する。
論文 参考訳(メタデータ) (2022-04-01T17:53:39Z) - Bach Style Music Authoring System based on Deep Learning [0.0]
本研究の目的は,ディープラーニングに基づくバッハスタイルの音楽オーサリングシステムを設計することである。
LSTMニューラルネットワークを用いて、シリアライズおよび標準化された音楽特徴データをトレーニングする。
Bach 音楽の模倣を生成できる最適な LSTM モデルを見いだす。
論文 参考訳(メタデータ) (2021-10-06T10:30:09Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - dMelodies: A Music Dataset for Disentanglement Learning [70.90415511736089]
我々は、研究者が様々な領域でアルゴリズムの有効性を実証するのに役立つ新しいシンボリック・ミュージック・データセットを提案する。
これはまた、音楽用に特別に設計されたアルゴリズムを評価する手段を提供する。
データセットは、遠絡学習のためのディープネットワークのトレーニングとテストに十分な大きさ(約13万データポイント)である。
論文 参考訳(メタデータ) (2020-07-29T19:20:07Z) - Artificial Musical Intelligence: A Survey [51.477064918121336]
音楽は、機械学習と人工知能研究の領域としてますます広まりつつある。
この記事では、音楽知能の定義を提供し、その構成成分の分類を導入し、その追求に耐えうる幅広いAI手法を調査します。
論文 参考訳(メタデータ) (2020-06-17T04:46:32Z) - RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement
Learning [69.20460466735852]
本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。
提案アルゴリズムは人体に応答し,メロディック,ハーモニック,多種多様な機械部品を生成する。
論文 参考訳(メタデータ) (2020-02-08T03:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。