論文の概要: In-depth analysis of music structure as a self-organized network
- arxiv url: http://arxiv.org/abs/2303.13631v1
- Date: Tue, 21 Mar 2023 08:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 16:28:27.447322
- Title: In-depth analysis of music structure as a self-organized network
- Title(参考訳): 自己組織化ネットワークとしての音楽構造の深部分析
- Authors: Ping-Rui Tsai and Yen-Ting Chou and Nathan-Christopher Wang and
Hui-Ling Chen and Hong-Yue Huang and Zih-Jia Luo and Tzay-Ming Hong
- Abstract要約: 音声をテキストにエンコードする Essential Element Network (EEN) というアルゴリズムを導入する。
ネットワークは、スケール、時間、ボリュームの相関を計算して得られる。
我々はこれらの符号化された単語を時空間にマッピングし、音楽の深い構造における構文を体系的に整理するのに役立つ。
- 参考スコア(独自算出の注目度): 8.988019665750633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Words in a natural language not only transmit information but also evolve
with the development of civilization and human migration. The same is true for
music. To understand the complex structure behind the music, we introduced an
algorithm called the Essential Element Network (EEN) to encode the audio into
text. The network is obtained by calculating the correlations between scales,
time, and volume. Optimizing EEN to generate Zipfs law for the frequency and
rank of the clustering coefficient enables us to generate and regard the
semantic relationships as words. We map these encoded words into the
scale-temporal space, which helps us organize systematically the syntax in the
deep structure of music. Our algorithm provides precise descriptions of the
complex network behind the music, as opposed to the black-box nature of other
deep learning approaches. As a result, the experience and properties
accumulated through these processes can offer not only a new approach to the
applications of Natural Language Processing (NLP) but also an easier and more
objective way to analyze the evolution and development of music.
- Abstract(参考訳): 自然言語の言葉は情報を伝達するだけでなく、文明や人的移住の発展とともに進化する。
同じことが音楽にも当てはまる。
音楽の背後にある複雑な構造を理解するため,音声をテキストにエンコードする Essential Element Network (EEN) というアルゴリズムを導入した。
ネットワークは、スケール、時間、ボリュームの相関を計算することによって得られる。
クラスタリング係数の周波数とランクに対して,EENを最適化してZipfs法則を生成することにより,意味関係を単語として生成し,考察することができる。
符号化された単語を時空間にマッピングすることで,音楽の深部構造における構文を体系的に整理する。
我々のアルゴリズムは、他の深層学習手法のブラックボックスの性質とは対照的に、音楽の背後にある複雑なネットワークの正確な記述を提供する。
その結果、これらのプロセスを通じて蓄積された経験と特性は、自然言語処理(NLP)の応用に対する新しいアプローチを提供するだけでなく、音楽の進化と発展を分析するためのより簡単で客観的な方法を提供することができる。
関連論文リスト
- Decoding Musical Evolution Through Network Science [39.58317527488534]
私たちはNetwork Scienceを使って音楽の複雑さを分析します。
それぞれの構成を重み付き指向ネットワークとして表現し,その構造特性について検討する。
その結果、クラシックとジャズの合成は、近年発達したジャンルよりも複雑さとメロディ的な多様性が高いことが明らかとなった。
論文 参考訳(メタデータ) (2025-01-13T18:39:44Z) - A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - ChatMusician: Understanding and Generating Music Intrinsically with LLM [81.48629006702409]
ChatMusicianは、固有の音楽能力を統合するオープンソースのLarge Language Models(LLM)である。
外部のマルチモーダル・ニューラル構造やトークンーザを使わずに、純粋なテキスト・トークンーザで音楽を理解して生成することができる。
我々のモデルは、テキスト、コード、メロディ、モチーフ、音楽形式など、よく構造化されたフル長の音楽を構成することができる。
論文 参考訳(メタデータ) (2024-02-25T17:19:41Z) - Are Words Enough? On the semantic conditioning of affective music
generation [1.534667887016089]
このスコーピングレビューは、感情によって条件付けられた音楽生成の可能性を分析し、議論することを目的としている。
本稿では,ルールベースモデルと機械学習モデルという,自動音楽生成において採用される2つの主要なパラダイムについて概観する。
音楽を通して感情を表現する言葉の限界とあいまいさを克服することは、創造産業に影響を及ぼす可能性があると結論付けている。
論文 参考訳(メタデータ) (2023-11-07T00:19:09Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training [97.91071692716406]
シンボリック・ミュージックの理解(シンボリック・ミュージックの理解)とは、シンボリック・データから音楽を理解することを指す。
MusicBERTは、音楽理解のための大規模な事前訓練モデルである。
論文 参考訳(メタデータ) (2021-06-10T10:13:05Z) - Music Harmony Generation, through Deep Learning and Using a
Multi-Objective Evolutionary Algorithm [0.0]
本稿では,ポリフォニック音楽生成のための遺伝的多目的進化最適化アルゴリズムを提案する。
ゴールの1つは音楽の規則と規則であり、他の2つのゴール、例えば音楽の専門家や普通のリスナーのスコアとともに、最も最適な反応を得るために進化のサイクルに適合する。
その結果,提案手法は,聞き手を引き寄せながら文法に従う調和音とともに,所望のスタイルや長さの難易度と快適さを生み出すことができることがわかった。
論文 参考訳(メタデータ) (2021-02-16T05:05:54Z) - Structural characterization of musical harmonies [4.416484585765029]
本研究では,エビデンスを収集する数値法を用いて変調を検出し,検出した調音性に基づいて,各調音成分の構造解析に非あいまいな文法を用いるハイブリッド手法を提案する。
XVIIとXVIII世紀の音楽による実験では、ほぼ97%のケースにおいて、少なくとも2つの和音の誤りで変調の正確な点を検出することができた。
論文 参考訳(メタデータ) (2019-12-27T23:15:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。