論文の概要: Cadence Detection in Symbolic Classical Music using Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2208.14819v1
- Date: Wed, 31 Aug 2022 12:39:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 14:02:20.182946
- Title: Cadence Detection in Symbolic Classical Music using Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークを用いたシンボリッククラシック音楽のキャデンス検出
- Authors: Emmanouil Karystinaios, Gerhard Widmer
- Abstract要約: 本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
- 参考スコア(独自算出の注目度): 7.817685358710508
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cadences are complex structures that have been driving music from the
beginning of contrapuntal polyphony until today. Detecting such structures is
vital for numerous MIR tasks such as musicological analysis, key detection, or
music segmentation. However, automatic cadence detection remains challenging
mainly because it involves a combination of high-level musical elements like
harmony, voice leading, and rhythm. In this work, we present a graph
representation of symbolic scores as an intermediate means to solve the cadence
detection task. We approach cadence detection as an imbalanced node
classification problem using a Graph Convolutional Network. We obtain results
that are roughly on par with the state of the art, and we present a model
capable of making predictions at multiple levels of granularity, from
individual notes to beats, thanks to the fine-grained, note-by-note
representation. Moreover, our experiments suggest that graph convolution can
learn non-local features that assist in cadence detection, freeing us from the
need of having to devise specialized features that encode non-local context. We
argue that this general approach to modeling musical scores and classification
tasks has a number of potential advantages, beyond the specific recognition
task presented here.
- Abstract(参考訳): コントラポンタル・ポリフォニーの始まりから今日まで音楽を動かしてきた複雑な構造である。
このような構造を検出することは、音楽学的分析、鍵検出、音楽セグメンテーションといった多くのMIRタスクに欠かせない。
しかし、自動ケイデンス検出は、主にハーモニー、音声リード、リズムといったハイレベルな音楽要素の組み合わせを含むため、依然として困難である。
本研究では,記号スコアのグラフ表現を,ケイデンス検出タスクを解決するための中間手段として提示する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
我々は,その技術水準にほぼ匹敵する結果を得るとともに,細粒度なノート・バイ・ノート表現によって,個々の音符からビートまで,多段階の粒度で予測できるモデルを提案する。
さらに,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
音楽の楽譜と分類タスクをモデル化するこの一般的なアプローチは、ここで提示される特定の認識タスク以外にも、潜在的な利点がいくつかあると論じる。
関連論文リスト
- Toward a More Complete OMR Solution [49.74172035862698]
光音楽認識は、音楽の表記をデジタル形式に変換することを目的としている。
OMRに取り組む1つのアプローチは、画像内の視覚音楽の表記要素を最初に検出するマルチステージパイプラインである。
YOLOv8に基づく音楽オブジェクト検出器を導入し,検出性能を向上する。
第2に、検出出力に基づいて記法組立段階を完了する教師付きトレーニングパイプラインを導入する。
論文 参考訳(メタデータ) (2024-08-31T01:09:12Z) - GraphMuse: A Library for Symbolic Music Graph Processing [3.997809845676912]
GraphMuseは、効率的な音楽グラフ処理を容易にするグラフ処理フレームワークとライブラリである。
音楽の楽譜における意味のある動作を対象とする新しいサンプリング手法が,我々の貢献の中心である。
GraphMuseは、グラフ表現に基づくシンボリックな音楽処理の強化と標準化に繋がることを期待しています。
論文 参考訳(メタデータ) (2024-07-17T15:54:09Z) - Cluster and Separate: a GNN Approach to Voice and Staff Prediction for Score Engraving [5.572472212662453]
本稿では,音符を量子化された記号楽曲(例えばMIDIファイル)から複数の音声とステーブに分離する問題にアプローチする。
本稿では,同じ和音に属する音符を音声の一部であればエッジで接続する,グラフニューラルネットワークに基づくエンドツーエンドシステムを提案する。
論文 参考訳(メタデータ) (2024-07-15T14:36:13Z) - Perception-Inspired Graph Convolution for Music Understanding Tasks [3.5570874721859016]
本稿では,楽譜データの効率的な処理を目的とした新しいグラフ畳み込みブロックMusGConvを提案する。
我々は4つの異なる音楽理解問題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-15T10:04:44Z) - Combinatorial music generation model with song structure graph analysis [18.71152526968065]
音符列や楽器などの情報をノードの特徴として用いたグラフを構築し,音符列間の相関がエッジの特徴として機能する。
グラフニューラルネットワークを用いてノード表現を訓練し,ノード表現をUnetの入力として使用して,ConLONのピアノロール画像遅延を生成する。
論文 参考訳(メタデータ) (2023-12-24T04:09:30Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Visual Attention for Musical Instrument Recognition [72.05116221011949]
本研究では,楽器認識の性能向上を図るため,音節時間感覚における注意機構,すなわち視覚的注意(la visual attention)の活用について検討する。
第1のアプローチは,各音節時間インスタンスに基づく予測をアグリゲーション前に注意重み付けし,最終的な予測を生成するスライディング・ウインドウ・パラダイムに注意機構を適用した。
第2のアプローチは、ネットワークがスペクトログラムの一部にのみ参加し、限られた回数の視覚的注意を前提として、次にどこに出席するかを決定する、反復的な視覚的注意モデルに基づいている。
論文 参考訳(メタデータ) (2020-06-17T03:56:44Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。