論文の概要: Towards Explaining Expressive Qualities in Piano Recordings: Transfer of
Explanatory Features via Acoustic Domain Adaptation
- arxiv url: http://arxiv.org/abs/2102.13479v1
- Date: Fri, 26 Feb 2021 13:49:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-01 14:31:12.306837
- Title: Towards Explaining Expressive Qualities in Piano Recordings: Transfer of
Explanatory Features via Acoustic Domain Adaptation
- Title(参考訳): ピアノ録音における表現的品質の説明に向けて:音響領域適応による説明的特徴の伝達
- Authors: Shreyan Chowdhury and Gerhard Widmer
- Abstract要約: 本研究では,教師なし領域適応とレセプティブフィールド正規化ディープニューラルネットワークを併用することで,この領域への一般化を大幅に改善できることを示した。
ヒトリスナーが知覚し、描写したクラシックピアノ演奏の表現力をより良く予測し、説明できることを実証します。
- 参考スコア(独自算出の注目度): 8.071506311915396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion and expressivity in music have been topics of considerable interest
in the field of music information retrieval. In recent years, mid-level
perceptual features have been suggested as means to explain computational
predictions of musical emotion. We find that the diversity of musical styles
and genres in the available dataset for learning these features is not
sufficient for models to generalise well to specialised acoustic domains such
as solo piano music. In this work, we show that by utilising unsupervised
domain adaptation together with receptive-field regularised deep neural
networks, it is possible to significantly improve generalisation to this
domain. Additionally, we demonstrate that our domain-adapted models can better
predict and explain expressive qualities in classical piano performances, as
perceived and described by human listeners.
- Abstract(参考訳): 音楽における感情と表現性は、音楽情報検索の分野で大きな関心を集めている。
近年,音楽感情の計算的予測を説明する手段として,中程度の知覚的特徴が提案されている。
これらの特徴を学習するために利用可能なデータセット内の音楽スタイルとジャンルの多様性は、ソロピアノ音楽などの専門音響領域にモデルがうまく一般化するのに十分ではないことがわかります。
本研究では,教師なし領域適応とレセプティブフィールド正規化ディープニューラルネットワークを併用することで,この領域への一般化を大幅に改善できることを示した。
さらに,我々のドメイン適応モデルが,人間の聞き手によって認識され,説明されるように,クラシックピアノ演奏の表現的性質をより良く予測し,説明できることを実証する。
関連論文リスト
- ERNIE-Music: Text-to-Waveform Music Generation with Diffusion Models [67.66825818489406]
本稿では拡散モデルの利用を基盤としたテキストから波形への音楽生成モデルを提案する。
本手法は,波形生成プロセスの指針となる条件因子として,自由形式のテキストプロンプトの革新的導入を前提としている。
波形領域における我々の生成した音楽は、多様性、品質、およびテキスト音楽の関連性において、以前の作品よりも大きなマージンで優れていたことを実証する。
論文 参考訳(メタデータ) (2023-02-09T06:27:09Z) - Song Emotion Recognition: a Performance Comparison Between Audio
Features and Artificial Neural Networks [0.0]
この問題に対処するために使用される最も一般的な特徴とモデルについて検討し、カペラの歌で感情を認識するのに適したものを明らかにする。
本稿では,この課題に対処するために,近年の出版物で用いられている最も一般的な特徴とモデルについて検討し,カペラ歌の感情認識に最も適しているものについて述べる。
論文 参考訳(メタデータ) (2022-09-24T16:13:25Z) - Learning Neural Acoustic Fields [110.22937202449025]
音が物理的場面でどのように伝搬するかを暗黙的に表現するニューラル・アコースティック・フィールズ(NAF)を導入する。
シーン内の音響伝搬を線形時間不変系としてモデル化することにより、NAFは全てのエミッタとリスナーの位置ペアを連続的にマッピングすることを学ぶ。
NAFの連続的な性質により、任意の場所でリスナーの空間音響を描画することができ、新しい場所での音の伝搬を予測できることを実証する。
論文 参考訳(メタデータ) (2022-04-04T17:59:37Z) - Towards Cross-Cultural Analysis using Music Information Dynamics [7.4517333921953215]
異なる文化の音楽は、2つの面で異なるスタイルのコンベンションを持つことによって異なる美学を確立する。
本稿では,これら2つの側面に着目し,異なる文化の楽曲を定量的に比較する枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-24T16:05:29Z) - Signal-domain representation of symbolic music for learning embedding
spaces [2.28438857884398]
本稿では,ポリフォニック楽譜を連続信号に変換するシンボリック音楽データの新しい表現を提案する。
信号ライクな表現は、より良い再構築と不整合性をもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-08T06:36:02Z) - Tracing Back Music Emotion Predictions to Sound Sources and Intuitive
Perceptual Qualities [6.832341432995627]
音楽感情認識は,音楽情報検索研究において重要な課題である。
より良いモデルに向けた重要なステップの1つは、モデルが実際にデータから学んでいるものを理解することである。
本研究では,高レベルの感情予測に結びつくスペクトル画像セグメントを用いて,モデル予測の説明を導出する方法を示す。
論文 参考訳(メタデータ) (2021-06-14T22:49:19Z) - Musical Prosody-Driven Emotion Classification: Interpreting Vocalists
Portrayal of Emotions Through Machine Learning [0.0]
音楽の韻律の役割は、いくつかの研究が韻律と感情の強い結びつきを示しているにもかかわらず、まだ解明されていない。
本研究では,従来の機械学習アルゴリズムの入力を音楽韻律の特徴に限定する。
我々は,ボーカリストの個人データ収集手法と,アーティスト自身による個人的根拠的真理ラベル付け手法を利用する。
論文 参考訳(メタデータ) (2021-06-04T15:40:19Z) - Sequence Generation using Deep Recurrent Networks and Embeddings: A
study case in music [69.2737664640826]
本稿では,異なる種類の記憶機構(メモリセル)について評価し,音楽合成分野におけるその性能について検討する。
提案したアーキテクチャの性能を自動評価するために,定量的な測定値のセットが提示される。
論文 参考訳(メタデータ) (2020-12-02T14:19:19Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。