論文の概要: Knowledge-based Multimodal Music Similarity
- arxiv url: http://arxiv.org/abs/2306.12249v1
- Date: Wed, 21 Jun 2023 13:12:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 13:18:50.047020
- Title: Knowledge-based Multimodal Music Similarity
- Title(参考訳): 知識に基づくマルチモーダル音楽の類似性
- Authors: Andrea Poltronieri
- Abstract要約: 本研究は,シンボリックコンテンツとオーディオコンテンツの両方を用いた音楽的類似性の研究に焦点をあてる。
本研究の目的は、音楽の類似性や分類システムのより制御と理解をエンドユーザに提供する、完全に説明可能な、解釈可能なシステムを開発することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Music similarity is an essential aspect of music retrieval, recommendation
systems, and music analysis. Moreover, similarity is of vital interest for
music experts, as it allows studying analogies and influences among composers
and historical periods. Current approaches to musical similarity rely mainly on
symbolic content, which can be expensive to produce and is not always readily
available. Conversely, approaches using audio signals typically fail to provide
any insight about the reasons behind the observed similarity. This research
addresses the limitations of current approaches by focusing on the study of
musical similarity using both symbolic and audio content. The aim of this
research is to develop a fully explainable and interpretable system that can
provide end-users with more control and understanding of music similarity and
classification systems.
- Abstract(参考訳): 音楽の類似性は、音楽検索、レコメンデーションシステム、音楽分析において重要な側面である。
さらに、作曲家や歴史時代の類似や影響を研究することができるため、音楽専門家にとって類似性は極めて重要である。
音楽の類似性に対する現在のアプローチは、主に象徴的な内容に依存しており、生産に費用がかかり、必ずしも容易に利用できるとは限らない。
逆に、オーディオ信号を用いたアプローチは、観察された類似性の背後にある理由についての洞察を得られない。
本研究は、シンボリックコンテンツとオーディオコンテンツの両方を用いた音楽的類似性の研究に焦点を当て、現在のアプローチの限界に対処する。
本研究の目的は,音楽の類似性と分類システムの制御と理解をエンドユーザに提供する,完全に説明可能で解釈可能なシステムを開発することである。
関連論文リスト
- A Survey of Foundation Models for Music Understanding [60.83532699497597]
この研究は、AI技術と音楽理解の交差に関する初期のレビューの1つである。
音楽理解能力に関して,近年の大規模音楽基盤モデルについて検討,分析,検証を行った。
論文 参考訳(メタデータ) (2024-09-15T03:34:14Z) - A Dataset and Baselines for Measuring and Predicting the Music Piece Memorability [16.18336216092687]
音楽の記憶力の測定と予測に重点を置いている。
私たちは、音楽の記憶可能性の予測と分析のためにベースラインを訓練します。
改善の余地はあるものの、限られたデータで音楽の記憶可能性を予測することは可能であることを実証する。
論文 参考訳(メタデータ) (2024-05-21T14:57:04Z) - Quantifying the evolution of harmony and novelty in western classical
music [1.0152838128195467]
我々は、和声に関連する音楽的特徴について研究し、西洋古典音楽において、彼らが400年間にわたってどのように発展してきたかを述べる。
我々は重要な不確実性、および重要な遷移における多様性と新規性を定量化する尺度を開発する。
我々は,古典後期の急激な増加に続き,古典期前期の調和移行における革新の衰退を報告している。
論文 参考訳(メタデータ) (2023-08-06T23:00:34Z) - Multimodal Lyrics-Rhythm Matching [0.0]
本稿では,歌詞と音楽のキーコンポーネントを相互にマッチングする,新しいマルチモーダルな歌詞・リズムマッチング手法を提案する。
楽譜の代わりに音声を使用し、メタデータを手軽に利用できるようにし、より多くの課題を生み出しますが、我々の手法の適用柔軟性は向上します。
実験の結果,平均一致確率は0.81であり,曲の約30%は強拍に着地するキーワードの0.9以上の確率を持つことがわかった。
論文 参考訳(メタデータ) (2023-01-06T22:24:53Z) - ALCAP: Alignment-Augmented Music Captioner [34.85003676798762]
コントラスト学習により,音声と歌詞のマルチモーダルアライメントを学習する手法を提案する。
これは、音声と歌詞のシナジーを認識し、強調するだけでなく、モデルがより深いモーダルなコヒーレンスを達成するための道を開く。
論文 参考訳(メタデータ) (2022-12-21T10:20:54Z) - A Dataset for Greek Traditional and Folk Music: Lyra [69.07390994897443]
本稿では,80時間程度で要約された1570曲を含むギリシャの伝統音楽と民俗音楽のデータセットについて述べる。
このデータセットにはYouTubeのタイムスタンプ付きリンクが組み込まれており、オーディオやビデオの検索や、インスツルメンテーション、地理、ジャンルに関する豊富なメタデータ情報が含まれている。
論文 参考訳(メタデータ) (2022-11-21T14:15:43Z) - Concept-Based Techniques for "Musicologist-friendly" Explanations in a
Deep Music Classifier [5.442298461804281]
ハイレベルな音楽概念に基づくより人間フレンドリーな説明に焦点を当てる。
我々の研究は、訓練されたシステム(ポストホックな説明)をターゲットとし、2つのアプローチを探求する。
既存のシンボリック作曲家分類システムにおいて,両手法を実証し,その可能性を示し,本質的な限界を強調した。
論文 参考訳(メタデータ) (2022-08-26T07:45:29Z) - SeCo: Separating Unknown Musical Visual Sounds with Consistency Guidance [88.0355290619761]
この作品は未知の楽器の分離に焦点を当てている。
本稿では,未知のカテゴリを分離できるセコ(SeCo)フレームワークを提案する。
本手法は,新たな楽曲カテゴリに適応する能力を示し,基本手法を顕著なマージンで上回る性能を示す。
論文 参考訳(メタデータ) (2022-03-25T09:42:11Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。