論文の概要: Cadence Detection in Symbolic Classical Music using Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.14819v1
- Date: Wed, 31 Aug 2022 12:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 14:02:20.182946
- Title: Cadence Detection in Symbolic Classical Music using Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークを用いたシンボリッククラシック音楽のキャデンス検出
- Authors: Emmanouil Karystinaios, Gerhard Widmer
- Abstract要約: 本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 7.817685358710508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cadences are complex structures that have been driving music from the
beginning of contrapuntal polyphony until today. Detecting such structures is
vital for numerous MIR tasks such as musicological analysis, key detection, or
music segmentation. However, automatic cadence detection remains challenging
mainly because it involves a combination of high-level musical elements like
harmony, voice leading, and rhythm. In this work, we present a graph
representation of symbolic scores as an intermediate means to solve the cadence
detection task. We approach cadence detection as an imbalanced node
classification problem using a Graph Convolutional Network. We obtain results
that are roughly on par with the state of the art, and we present a model
capable of making predictions at multiple levels of granularity, from
individual notes to beats, thanks to the fine-grained, note-by-note
representation. Moreover, our experiments suggest that graph convolution can
learn non-local features that assist in cadence detection, freeing us from the
need of having to devise specialized features that encode non-local context. We
argue that this general approach to modeling musical scores and classification
tasks has a number of potential advantages, beyond the specific recognition
task presented here.
- Abstract(参考訳): コントラポンタル・ポリフォニーの始まりから今日まで音楽を動かしてきた複雑な構造である。
このような構造を検出することは、音楽学的分析、鍵検出、音楽セグメンテーションといった多くのMIRタスクに欠かせない。
しかし、自動ケイデンス検出は、主にハーモニー、音声リード、リズムといったハイレベルな音楽要素の組み合わせを含むため、依然として困難である。
本研究では,記号スコアのグラフ表現を,ケイデンス検出タスクを解決するための中間手段として提示する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
我々は,その技術水準にほぼ匹敵する結果を得るとともに,細粒度なノート・バイ・ノート表現によって,個々の音符からビートまで,多段階の粒度で予測できるモデルを提案する。
さらに,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
音楽の楽譜と分類タスクをモデル化するこの一般的なアプローチは、ここで提示される特定の認識タスク以外にも、潜在的な利点がいくつかあると論じる。
関連論文リスト
- Combinatorial music generation model with song structure graph analysis [18.71152526968065]
音符列や楽器などの情報をノードの特徴として用いたグラフを構築し,音符列間の相関がエッジの特徴として機能する。
グラフニューラルネットワークを用いてノード表現を訓練し,ノード表現をUnetの入力として使用して,ConLONのピアノロール画像遅延を生成する。
論文 参考訳(メタデータ) (2023-12-24T04:09:30Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - Symbolic Music Structure Analysis with Graph Representations and
Changepoint Detection Methods [1.1677169430445211]
シンボリック音楽の形式や構造を,ノルム,G-PELT,G-Windowの3つの手法を提案する。
我々は,記号曲をグラフ表現で符号化し,隣接行列の斬新さを計算することで,記号曲の構造をうまく表現できることを発見した。
論文 参考訳(メタデータ) (2023-03-24T09:45:11Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Tracing Back Music Emotion Predictions to Sound Sources and Intuitive
Perceptual Qualities [6.832341432995627]
音楽感情認識は,音楽情報検索研究において重要な課題である。
より良いモデルに向けた重要なステップの1つは、モデルが実際にデータから学んでいるものを理解することである。
本研究では,高レベルの感情予測に結びつくスペクトル画像セグメントを用いて,モデル予測の説明を導出する方法を示す。
論文 参考訳(メタデータ) (2021-06-14T22:49:19Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Visual Attention for Musical Instrument Recognition [72.05116221011949]
本研究では,楽器認識の性能向上を図るため,音節時間感覚における注意機構,すなわち視覚的注意(la visual attention)の活用について検討する。
第1のアプローチは,各音節時間インスタンスに基づく予測をアグリゲーション前に注意重み付けし,最終的な予測を生成するスライディング・ウインドウ・パラダイムに注意機構を適用した。
第2のアプローチは、ネットワークがスペクトログラムの一部にのみ参加し、限られた回数の視覚的注意を前提として、次にどこに出席するかを決定する、反復的な視覚的注意モデルに基づいている。
論文 参考訳(メタデータ) (2020-06-17T03:56:44Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。