論文の概要: The HaMSE Ontology: Using Semantic Technologies to support Music
Representation Interoperability and Musicological Analysis
- arxiv url: http://arxiv.org/abs/2202.05817v1
- Date: Fri, 11 Feb 2022 18:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-14 17:04:51.011963
- Title: The HaMSE Ontology: Using Semantic Technologies to support Music
Representation Interoperability and Musicological Analysis
- Title(参考訳): hamseオントロジー:音楽表現の相互運用性と音楽分析を支援するセマンティック技術
- Authors: Andrea Poltronieri and Aldo Gangemi
- Abstract要約: 本研究では,音楽学研究を支援する音楽的特徴を記述可能なオントロジーであるHaMSEを提案する。
これを実現するために、HaMSEは異なる音楽表現システム間のアライメントを可能にし、異なるレベルの音楽分析を可能にする音楽的特徴のセットを記述する。
- 参考スコア(独自算出の注目度): 0.34265828682659694
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The use of Semantic Technologies - in particular the Semantic Web - has
revealed to be a great tool for describing the cultural heritage domain and
artistic practices. However, the panorama of ontologies for musicological
applications seems to be limited and restricted to specific applications. In
this research, we propose HaMSE, an ontology capable of describing musical
features that can assist musicological research. More specifically, HaMSE
proposes to address sues that have been affecting musicological research for
decades: the representation of music and the relationship between quantitative
and qualitative data. To do this, HaMSE allows the alignment between different
music representation systems and describes a set of musicological features that
can allow the music analysis at different granularity levels.
- Abstract(参考訳): セマンティクス技術、特にセマンティクスウェブの使用は、文化遺産のドメインと芸術的実践を記述するための優れたツールであることが判明した。
しかし、音楽学応用のオントロジーのパノラマは、特定の応用に限定されているようである。
本研究では,音楽学研究を支援する音楽的特徴を記述可能なオントロジーであるHaMSEを提案する。
より具体的には、HaMSEは音楽研究に何十年にもわたって影響を与えてきた、音楽の表現と量的データと質的データの関係に関する訴訟に対処することを提案する。
これを実現するために、HaMSEは異なる音楽表現システム間のアライメントを可能にし、異なる粒度レベルでの音楽解析を可能にする音楽的特徴セットを記述する。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - Foundation Models for Music: A Survey [77.77088584651268]
ファンデーションモデル(FM)は音楽を含む様々な分野に大きな影響を与えている。
本総説では,音楽の事前学習モデルと基礎モデルについて概観する。
論文 参考訳(メタデータ) (2024-08-26T15:13:14Z) - MeLFusion: Synthesizing Music from Image and Language Cues using Diffusion Models [57.47799823804519]
私たちは、ミュージシャンが映画の脚本だけでなく、視覚化を通して音楽を作る方法にインスピレーションを受けています。
本稿では,テキスト記述と対応する画像からの手がかりを効果的に利用して音楽を合成するモデルであるMeLFusionを提案する。
音楽合成パイプラインに視覚情報を加えることで、生成した音楽の質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-06-07T06:38:59Z) - The Music Meta Ontology: a flexible semantic model for the
interoperability of music metadata [0.39373541926236766]
アーティスト,作曲,演奏,録音,リンクに関連する音楽メタデータを記述するために,音楽メタオントロジーを導入する。
モデルの最初の評価、他のスキーマへのアライメント、データ変換のサポートを提供します。
論文 参考訳(メタデータ) (2023-11-07T12:35:15Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Concept-Based Techniques for "Musicologist-friendly" Explanations in a
Deep Music Classifier [5.442298461804281]
ハイレベルな音楽概念に基づくより人間フレンドリーな説明に焦点を当てる。
我々の研究は、訓練されたシステム(ポストホックな説明)をターゲットとし、2つのアプローチを探求する。
既存のシンボリック作曲家分類システムにおいて,両手法を実証し,その可能性を示し,本質的な限界を強調した。
論文 参考訳(メタデータ) (2022-08-26T07:45:29Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。