論文の概要: Representing Classical Compositions through Implication-Realization Temporal-Gestalt Graphs
- arxiv url: http://arxiv.org/abs/2510.27530v1
- Date: Fri, 31 Oct 2025 15:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.141069
- Title: Representing Classical Compositions through Implication-Realization Temporal-Gestalt Graphs
- Title(参考訳): 暗黙化時空間グラフによる古典的構成の表現
- Authors: A. V. Bomediano, R. J. Conanan, L. D. Santuyo, A. Coronel,
- Abstract要約: 本研究では,Implication-Realization(I-R)モデルなどの認知モデルを操作するグラフベースの計算手法を提案する。
構造情報と認知情報をエンコードし、聴取者の音楽的緊張感と解像度を反映する。
その結果,グラフ内構造とグラフ間構造の間に統計的に有意な差異が認められた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the structural and cognitive underpinnings of musical compositions remains a key challenge in music theory and computational musicology. While traditional methods focus on harmony and rhythm, cognitive models such as the Implication-Realization (I-R) model and Temporal Gestalt theory offer insight into how listeners perceive and anticipate musical structure. This study presents a graph-based computational approach that operationalizes these models by segmenting melodies into perceptual units and annotating them with I-R patterns. These segments are compared using Dynamic Time Warping and organized into k-nearest neighbors graphs to model intra- and inter-segment relationships. Each segment is represented as a node in the graph, and nodes are further labeled with melodic expectancy values derived from Schellenberg's two-factor I-R model-quantifying pitch proximity and pitch reversal at the segment level. This labeling enables the graphs to encode both structural and cognitive information, reflecting how listeners experience musical tension and resolution. To evaluate the expressiveness of these graphs, we apply the Weisfeiler-Lehman graph kernel to measure similarity between and within compositions. Results reveal statistically significant distinctions between intra- and inter-graph structures. Segment-level analysis via multidimensional scaling confirms that structural similarity at the graph level reflects perceptual similarity at the segment level. Graph2vec embeddings and clustering demonstrate that these representations capture stylistic and structural features that extend beyond composer identity. These findings highlight the potential of graph-based methods as a structured, cognitively informed framework for computational music analysis, enabling a more nuanced understanding of musical structure and style through the lens of listener perception.
- Abstract(参考訳): 楽曲の構造と認知の基盤を理解することは、音楽理論と計算音楽学において重要な課題である。
伝統的な手法は調和とリズムに重点を置いているが、Implication-Realization(I-R)モデルや時間的ゲシュタルト理論のような認知モデルは、聴取者が音楽構造をどのように知覚し、予測するかについての洞察を与える。
本研究では,メロディを知覚単位に分割し,I-Rパターンでアノテートすることで,これらのモデルを操作するグラフベースの計算手法を提案する。
これらのセグメントはDynamic Time Warpingを用いて比較され、k-nearestの隣人グラフに編成され、セグメント内およびセグメント間関係をモデル化する。
各セグメントはグラフ内のノードとして表現され、ノードはさらに、シェーレンバーグの2要素I-Rモデル量子化ピッチ近接とセグメントレベルでのピッチ反転から導かれるメロディ的な期待値でラベル付けされる。
このラベル付けにより、リスナーが音楽的な緊張と解決をいかに経験するかを反映して、構造情報と認知情報をエンコードすることができる。
これらのグラフの表現性を評価するため、Weisfeiler-Lehmanグラフカーネルを用いて合成の類似性を計測する。
その結果,グラフ内構造とグラフ間構造の間に統計的に有意な差異が認められた。
多次元スケーリングによるセグメントレベルの分析は、グラフレベルでの構造的類似性がセグメントレベルでの知覚的類似性を反映していることを確認する。
Graph2vecの埋め込みとクラスタリングは、これらの表現が作曲家のアイデンティティを超えて、スタイリスティックで構造的な特徴を捉えていることを示している。
これらの知見は,音楽構造やスタイルをより微妙に理解し,聴取者の知覚のレンズを通して理解することのできる,構造化された認知的な音楽分析フレームワークとしてのグラフベースの手法の可能性を強調した。
関連論文リスト
- Synthesizing Composite Hierarchical Structure from Symbolic Music Corpora [32.18458296933001]
構造時間グラフ(STG)と呼ばれる音楽構造の統一的階層的メタ表現を提案する。
シングルピースの場合、STGは、より微細な構造的音楽的特徴の階層構造とそれらの間の時間的関係を定義するデータ構造である。
論文 参考訳(メタデータ) (2025-02-21T02:32:29Z) - Clustering Time-Evolving Networks Using the Spatio-Temporal Graph Laplacian [0.8643517734716606]
我々は既存のスペクトルアルゴリズムを一般化し、時間変化のあるグラフ構造におけるコミュニティを特定し解析する。
テンポラル指向グラフ Laplacian は、有向および無向クラスタの時間経過に伴うクラスタ構造進化の明確な解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2024-07-12T14:31:54Z) - Perception-Inspired Graph Convolution for Music Understanding Tasks [3.5570874721859016]
本稿では,楽譜データの効率的な処理を目的とした新しいグラフ畳み込みブロックMusGConvを提案する。
我々は4つの異なる音楽理解問題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-15T10:04:44Z) - Graph-based Polyphonic Multitrack Music Generation [9.701208207491879]
本稿では,音楽のための新しいグラフ表現と,音楽グラフの構造と内容を別々に生成する深部変分オートエンコーダを提案する。
音楽グラフの構造と内容を分離することにより、特定のタイミングでどの楽器が演奏されているかを指定することで条件生成が可能となる。
論文 参考訳(メタデータ) (2023-07-27T15:18:50Z) - TranSG: Transformer-Based Skeleton Graph Prototype Contrastive Learning
with Structure-Trajectory Prompted Reconstruction for Person
Re-Identification [63.903237777588316]
3Dスケルトンデータによる人物再識別(re-ID)は、顕著な優位性を持つ新興トピックである。
既存の方法は通常、生の関節を持つ骨格記述子を設計するか、あるいは骨格配列表現学習を行う。
本稿では,構造軌道を誘導する再構成によるコントラスト学習(TranSG)手法を提案する。
論文 参考訳(メタデータ) (2023-03-13T02:27:45Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - Group Contrastive Self-Supervised Learning on Graphs [101.45974132613293]
グラフ上での自己教師型学習をコントラッシブ手法を用いて研究する。
複数の部分空間におけるグラフの対比により、グラフエンコーダはより豊富な特徴を捉えることができる。
論文 参考訳(メタデータ) (2021-07-20T22:09:21Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。