論文の概要: Visualizing Ensemble Predictions of Music Mood
- arxiv url: http://arxiv.org/abs/2112.07627v1
- Date: Tue, 14 Dec 2021 18:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 16:55:52.710478
- Title: Visualizing Ensemble Predictions of Music Mood
- Title(参考訳): 音楽ムードのアンサンブル予測の可視化
- Authors: Zelin Ye and Min Chen
- Abstract要約: 可視化技術は、時間軸に沿った異なる音楽セクションにおいて、一般的な予測と不確実性を効果的に伝達できることを示す。
我々は、視聴者が最も人気のある予測をより容易に観察し、測定できる「Dual-flux ThemeRiver」と呼ばれる新しい「ThemeRiver」を導入した。
- 参考スコア(独自算出の注目度): 4.5383186433033735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Music mood classification has been a challenging problem in comparison with
some other classification problems (e.g., genre, composer, or period). One
solution for addressing this challenging is to use an of ensemble machine
learning models. In this paper, we show that visualization techniques can
effectively convey the popular prediction as well as uncertainty at different
music sections along the temporal axis, while enabling the analysis of
individual ML models in conjunction with their application to different musical
data. In addition to the traditional visual designs, such as stacked line
graph, ThemeRiver, and pixel-based visualization, we introduced a new variant
of ThemeRiver, called "dual-flux ThemeRiver", which allows viewers to observe
and measure the most popular prediction more easily than stacked line graph and
ThemeRiver. Testing indicates that visualizing ensemble predictions is helpful
both in model-development workflows and for annotating music using model
predictions.
- Abstract(参考訳): 音楽のムード分類は、他の分類問題(ジャンル、作曲家、時代など)と比較して難しい問題となっている。
この課題に対処するソリューションのひとつは、アンサンブルの機械学習モデルを使用することだ。
本稿では, 可視化技術により, 時間軸に沿った異なる音楽区間において, 一般的な予測と不確かさを効果的に伝達でき, 異なる音楽データに適用した個々のMLモデルの解析が可能となることを示す。
重ね合わせ線グラフ,テーテリバー,ピクセルベースの可視化といった従来のビジュアルデザインに加えて,ビューアがスタック付き線グラフやテーテリバーよりも最も人気のある予測を観察し,測定することのできる,"dual-flux themeriver"と呼ばれる新しいテーテリバーも導入した。
テストは、モデル開発ワークフローとモデル予測を使用して音楽に注釈をつける際に、アンサンブル予測の可視化が有効であることを示している。
関連論文リスト
- Are We There Yet? A Brief Survey of Music Emotion Prediction Datasets, Models and Outstanding Challenges [9.62904012066486]
利用可能な音楽感情データセットの概要を概観し,評価基準とフィールドでの競争について論じる。
我々は、データセットの品質、アノテーションの一貫性、モデル一般化に関連する問題など、音楽の感情を正確に捉え続ける課題を強調した。
発見を補完するGitHubリポジトリも用意しています。
論文 参考訳(メタデータ) (2024-06-13T05:00:27Z) - Perception-Inspired Graph Convolution for Music Understanding Tasks [3.5570874721859016]
本稿では,楽譜データの効率的な処理を目的とした新しいグラフ畳み込みブロックMusGConvを提案する。
我々は4つの異なる音楽理解問題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2024-05-15T10:04:44Z) - Motif-Centric Representation Learning for Symbolic Music [5.781931021964343]
我々は、表現学習を通してモチーフとそのバリエーションの間の暗黙の関係を学習する。
正規化に基づくVICRegは事前学習に採用され、コントラスト学習は微調整に使用されている。
得られたモチーフ表現を可視化し、楽曲全体の構造を直感的に理解する。
論文 参考訳(メタデータ) (2023-09-19T13:09:03Z) - Visual Tuning [143.43997336384126]
微調整ビジュアルモデルは、多くの下流視覚タスクにおいて有望なパフォーマンスを示すことが広く示されている。
最近の進歩は、事前訓練されたパラメータ全体をフルチューニングするよりも優れたパフォーマンスを達成することができる。
この調査は、最近の作品の大規模かつ思慮深い選択を特徴付け、作業とモデルの体系的かつ包括的な概要を提供する。
論文 参考訳(メタデータ) (2023-05-10T11:26:36Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Relating Human Perception of Musicality to Prediction in a Predictive
Coding Model [0.8062120534124607]
人間の音楽知覚をモデル化するための予測符号化にインスパイアされたニューラルネットワークの利用について検討する。
このネットワークは階層視覚野における反復的相互作用の計算神経科学理論に基づいて開発された。
このネットワークを用いて階層的な聴覚システムをモデル化し、ランダムなピッチ列の楽しさに関して、人間と同じような選択をするかどうかを検討する。
論文 参考訳(メタデータ) (2022-10-29T12:20:01Z) - A Graph-Enhanced Click Model for Web Search [67.27218481132185]
ウェブ検索のための新しいグラフ強調クリックモデル(GraphCM)を提案する。
セッション内情報とセッション間情報の両方を、スパーシリティ問題とコールドスタート問題に活用する。
論文 参考訳(メタデータ) (2022-06-17T08:32:43Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Tracing Back Music Emotion Predictions to Sound Sources and Intuitive
Perceptual Qualities [6.832341432995627]
音楽感情認識は,音楽情報検索研究において重要な課題である。
より良いモデルに向けた重要なステップの1つは、モデルが実際にデータから学んでいるものを理解することである。
本研究では,高レベルの感情予測に結びつくスペクトル画像セグメントを用いて,モデル予測の説明を導出する方法を示す。
論文 参考訳(メタデータ) (2021-06-14T22:49:19Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。