論文の概要: MelodyVis: Visual Analytics for Melodic Patterns in Sheet Music
- arxiv url: http://arxiv.org/abs/2407.05427v1
- Date: Sun, 07 Jul 2024 16:04:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 20:15:53.568810
- Title: MelodyVis: Visual Analytics for Melodic Patterns in Sheet Music
- Title(参考訳): MelodyVis: 楽譜におけるメロディパターンのビジュアル分析
- Authors: Matthias Miller, Daniel Fürst, Maximilian T. Fischer, Hanna Hauptmann, Daniel Keim, Mennatallah El-Assady,
- Abstract要約: MelodyVisは、音楽学の専門家と協力して、デジタルシート音楽におけるメロディパターンを探索するビジュアルアプリケーションである。
このシステムは、8つの原子演算子(転位とミラーリング)を使ってメロディの反復と変奏を捉えている。
- 参考スコア(独自算出の注目度): 7.712907363185298
- License:
- Abstract: Manual melody detection is a tedious task requiring high expertise level, while automatic detection is often not expressive or powerful enough. Thus, we present MelodyVis, a visual application designed in collaboration with musicology experts to explore melodic patterns in digital sheet music. MelodyVis features five connected views, including a Melody Operator Graph and a Voicing Timeline. The system utilizes eight atomic operators, such as transposition and mirroring, to capture melody repetitions and variations. Users can start their analysis by manually selecting patterns in the sheet view, and then identifying other patterns based on the selected samples through an interactive exploration process. We conducted a user study to investigate the effectiveness and usefulness of our approach and its integrated melodic operators, including usability and mental load questions. We compared the analysis executed by 25 participants with and without the operators. The study results indicate that the participants could identify at least twice as many patterns with activated operators. MelodyVis allows analysts to steer the analysis process and interpret results. Our study also confirms the usefulness of MelodyVis in supporting common analytical tasks in melodic analysis, with participants reporting improved pattern identification and interpretation. Thus, MelodyVis addresses the limitations of fully-automated approaches, enabling music analysts to step into the analysis process and uncover and understand intricate melodic patterns and transformations in sheet music.
- Abstract(参考訳): 手動メロディ検出は高度な専門知識を必要とする面倒な作業であり、自動検出は表現力や力に乏しいことが多い。
そこで我々は,デジタルシート音楽におけるメロディパターンを探索するために,音楽学の専門家と共同で設計した視覚アプリケーションMelodyVisを提案する。
MelodyVisには、Melody Operator GraphとVoicing Timelineを含む5つのコネクテッドビューがある。
このシステムは、8つの原子演算子(転位とミラーリング)を使ってメロディの反復と変奏を捉えている。
ユーザは、シートビュー内のパターンを手動で選択し、インタラクティブな探索プロセスを通じて選択したサンプルに基づいて他のパターンを識別することで、分析を開始することができる。
本研究は,ユーザビリティや精神負荷問題を含むメロディック操作者に対するアプローチの有効性と有用性を検討するためのユーザスタディである。
25名の被験者が実施した分析を,操作者の有無で比較した。
その結果,アクティベーション演算子では,少なくとも2倍のパターンが検出できた。
MelodyVisは分析プロセスを制御し、結果を解釈することを可能にする。
また,メロディ解析における共通解析課題を支援するために,MelodyVisの有用性も確認した。
このように、MelodyVisは、完全に自動化されたアプローチの限界に対処し、音楽アナリストが分析プロセスに踏み込み、複雑なメロディパターンとシート音楽の変換を発見して理解することを可能にする。
関連論文リスト
- What User Behaviors Make the Differences During the Process of Visual
Analytics? [1.5285292154680246]
本研究では,ユーザ行動の包括的データ収集と時系列分類手法を用いた分析手法を提案する。
ユーザスタディでは,デスクトップと没入型2種類の可視化システムを用いて,多様な可視化タスクのユーザ行動を収集している。
この結果から,視覚分析の過程でユーザ行動の区別が可能であり,ユーザの身体行動とそれらが実行する可視化タスクとの間には強い関連性があることが判明した。
論文 参考訳(メタデータ) (2023-11-01T17:45:52Z) - Motif-Centric Representation Learning for Symbolic Music [5.781931021964343]
我々は、表現学習を通してモチーフとそのバリエーションの間の暗黙の関係を学習する。
正規化に基づくVICRegは事前学習に採用され、コントラスト学習は微調整に使用されている。
得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
論文 参考訳(メタデータ) (2023-09-19T13:09:03Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Cadence Detection in Symbolic Classical Music using Graph Neural
Networks [7.817685358710508]
本稿では,シンボルスコアのグラフ表現を中間的手段として提示し,ケイデンス検出課題を解決する。
グラフ畳み込みネットワークを用いた不均衡ノード分類問題としてケイデンス検出にアプローチする。
実験の結果,グラフ畳み込みは,非局所的コンテキストを符号化する特殊な特徴を考案する必要がなく,ケイデンス検出を支援する非局所的特徴を学習できることが示唆された。
論文 参考訳(メタデータ) (2022-08-31T12:39:57Z) - A Novel Multi-Task Learning Method for Symbolic Music Emotion
Recognition [76.65908232134203]
Symbolic Music Emotion Recognition(SMER)は、MIDIやMusicXMLなどのシンボリックデータから音楽の感情を予測すること。
本稿では、感情認識タスクを他の感情関連補助タスクに組み込む、SMERのためのシンプルなマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-15T07:45:10Z) - Detecting Generic Music Features with Single Layer Feedforward Network
using Unsupervised Hebbian Computation [3.8707695363745223]
著者らは、人気のあるオープンソース音楽コーパスから、そのような特徴に関する情報を抽出する。
彼らは同じデータセットを使用して、一層ニューラルネットワークに教師なしのヘビアン学習技術を適用する。
教師なしトレーニングアルゴリズムは、提案したニューラルネットワークを強化し、音楽特徴の検出を成功させるために90.36%の精度を達成する。
論文 参考訳(メタデータ) (2020-08-31T13:57:31Z) - Visual Attention for Musical Instrument Recognition [72.05116221011949]
本研究では,楽器認識の性能向上を図るため,音節時間感覚における注意機構,すなわち視覚的注意(la visual attention)の活用について検討する。
第1のアプローチは,各音節時間インスタンスに基づく予測をアグリゲーション前に注意重み付けし,最終的な予測を生成するスライディング・ウインドウ・パラダイムに注意機構を適用した。
第2のアプローチは、ネットワークがスペクトログラムの一部にのみ参加し、限られた回数の視覚的注意を前提として、次にどこに出席するかを決定する、反復的な視覚的注意モデルに基づいている。
論文 参考訳(メタデータ) (2020-06-17T03:56:44Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Exploring Inherent Properties of the Monophonic Melody of Songs [10.055143995729415]
本稿では,音韻メロディの解釈可能な特徴の集合を計算目的で提案する。
これらの特徴は数学的形式だけでなく、作曲家の直観にも考慮されている。
これらの特徴は、合唱的な作曲の実践であっても、多くのジャンルの歌において普遍的に人々によって考慮されている。
論文 参考訳(メタデータ) (2020-03-20T14:13:16Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。