論文の概要: The Music Note Ontology
- arxiv url: http://arxiv.org/abs/2304.00986v1
- Date: Thu, 30 Mar 2023 10:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:11:59.179549
- Title: The Music Note Ontology
- Title(参考訳): 音楽ノートオントロジー
- Authors: Andrea Poltronieri and Aldo Gangemi
- Abstract要約: 音楽ノートオントロジー(英: Music Note Ontology)は、音楽ノートとその実現をモデル化するためのオントロジーである。
これは記号表現システムで表される音符と、その実現との関係に対処する。
- 参考スコア(独自算出の注目度): 0.34265828682659694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we propose the Music Note Ontology, an ontology for modelling
music notes and their realisation. The ontology addresses the relation between
a note represented in a symbolic representation system, and its realisation,
i.e. a musical performance. This work therefore aims to solve the modelling and
representation issues that arise when analysing the relationships between
abstract symbolic features and the corresponding physical features of an audio
signal. The ontology is composed of three different Ontology Design Patterns
(ODP), which model the structure of the score (Score Part Pattern), the note in
the symbolic notation (Music Note Pattern) and its realisation (Musical Object
Pattern).
- Abstract(参考訳): 本稿では,音符をモデル化するオントロジーである音楽ノートオントロジーとその実現法を提案する。
オントロジーは記号表現システムで表現された音と、その実現、すなわち音楽演奏との関係を扱う。
そこで本研究では,音声信号の抽象的記号的特徴と対応する物理的特徴との関係を分析する際に生じるモデリングと表現の問題を解決することを目的とする。
オントロジーは3つの異なるオントロジー・デザイン・パターン(ODP)から構成されており、スコア・パート・パターン(Score Part Pattern)、記号表記(Music Note Pattern)、その実現(Musical Object Pattern)の構造をモデル化している。
関連論文リスト
- Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - Iconic Gesture Semantics [87.00251241246136]
ジェスチャーの視覚的象徴的モデルの知覚的分類において、情報評価は拡張的な例示(例示)として表される。
視覚コミュニケーションのインスタンスの知覚的分類は、Frege/Montagueフレームワークとは異なる意味の概念を必要とする。
モデル理論評価から動的セマンティックフレームワークにおける推論的解釈まで,ジェスチャ表現の全範囲をカバーするアイコン的ジェスチャセマンティクスが導入された。
論文 参考訳(メタデータ) (2024-04-29T13:58:03Z) - Combinatorial music generation model with song structure graph analysis [18.71152526968065]
音符列や楽器などの情報をノードの特徴として用いたグラフを構築し,音符列間の相関がエッジの特徴として機能する。
グラフニューラルネットワークを用いてノード表現を訓練し,ノード表現をUnetの入力として使用して,ConLONのピアノロール画像遅延を生成する。
論文 参考訳(メタデータ) (2023-12-24T04:09:30Z) - Motif-Centric Representation Learning for Symbolic Music [5.781931021964343]
我々は、表現学習を通してモチーフとそのバリエーションの間の暗黙の関係を学習する。
正規化に基づくVICRegは事前学習に採用され、コントラスト学習は微調整に使用されている。
得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
論文 参考訳(メタデータ) (2023-09-19T13:09:03Z) - Score Transformer: Generating Musical Score from Note-level
Representation [2.3554584457413483]
音符レベルの表現を適切な音楽表記に変換するためにトランスフォーマーモデルを訓練する。
また、モデルを扱うための効果的な表記レベルトークン表現についても検討する。
論文 参考訳(メタデータ) (2021-12-01T09:08:01Z) - Signal-domain representation of symbolic music for learning embedding
spaces [2.28438857884398]
本稿では,ポリフォニック楽譜を連続信号に変換するシンボリック音楽データの新しい表現を提案する。
信号ライクな表現は、より良い再構築と不整合性をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-08T06:36:02Z) - pix2rule: End-to-end Neuro-symbolic Rule Learning [84.76439511271711]
本稿では,画像のオブジェクトへの処理,学習関係,論理規則に関する完全なニューロシンボリックな手法を提案する。
主な貢献は、シンボリックリレーションとルールを抽出できるディープラーニングアーキテクチャにおける差別化可能なレイヤである。
我々のモデルは最先端のシンボリックラーナーを超えてスケールし、ディープリレーショナルニューラルネットワークアーキテクチャよりも優れていることを実証する。
論文 参考訳(メタデータ) (2021-06-14T15:19:06Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Embeddings as representation for symbolic music [0.0]
音楽の意味を含む方法で音楽のエンコードを可能にする表現技法は、コンピュータ音楽タスクのために訓練されたモデルの結果を改善する。
本稿では,データセットの3つの異なるバリエーションから音符を表現し,モデルが有用な音楽パターンを捉えることができるかどうかを解析するための埋め込み実験を行う。
論文 参考訳(メタデータ) (2020-05-19T13:04:02Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。