論文の概要: Towards Cross-Cultural Analysis using Music Information Dynamics
- arxiv url: http://arxiv.org/abs/2111.12588v1
- Date: Wed, 24 Nov 2021 16:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 17:09:28.516035
- Title: Towards Cross-Cultural Analysis using Music Information Dynamics
- Title(参考訳): 音楽情報ダイナミクスを用いたクロスカルチャー分析に向けて
- Authors: Shlomo Dubnov, Kevin Huang and Cheng-i Wang
- Abstract要約: 異なる文化の音楽は、2つの面で異なるスタイルのコンベンションを持つことによって異なる美学を確立する。
本稿では,これら2つの側面に着目し,異なる文化の楽曲を定量的に比較する枠組みを提案する。
- 参考スコア(独自算出の注目度): 7.4517333921953215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A music piece is both comprehended hierarchically, from sonic events to
melodies, and sequentially, in the form of repetition and variation. Music from
different cultures establish different aesthetics by having different style
conventions on these two aspects. We propose a framework that could be used to
quantitatively compare music from different cultures by looking at these two
aspects.
The framework is based on an Music Information Dynamics model, a Variable
Markov Oracle (VMO), and is extended with a variational representation learning
of audio. A variational autoencoder (VAE) is trained to map audio fragments
into a latent representation. The latent representation is fed into a VMO. The
VMO then learns a clustering of the latent representation via a threshold that
maximizes the information rate of the quantized latent representation sequence.
This threshold effectively controls the sensibility of the predictive step to
acoustic changes, which determines the framework's ability to track repetitions
on longer time scales. This approach allows characterization of the overall
information contents of a musical signal at each level of acoustic sensibility.
Our findings under this framework show that sensibility to subtle acoustic
changes is higher for East-Asian musical traditions, while the Western works
exhibit longer motivic structures at higher thresholds of differences in the
latent space. This suggests that a profile of information contents, analyzed as
a function of the level of acoustic detail can serve as a possible cultural
characteristic.
- Abstract(参考訳): 楽曲は、ソニックなイベントからメロディまで、繰り返しやバリエーションの形で階層的に、順次、階層的に解釈される。
異なる文化の音楽は、これら2つの側面に異なるスタイル慣習を持つことによって、異なる美学を確立します。
本稿では,これら2つの側面に着目し,異なる文化の楽曲を定量的に比較する枠組みを提案する。
このフレームワークは、可変マルコフOracle(VMO)である音楽情報ダイナミクスモデルに基づいており、オーディオの変分表現学習によって拡張されている。
変分オートエンコーダ(VAE)は、音声断片を潜在表現にマッピングするために訓練される。
潜在表現はVMOに入力される。
VMOは、量子化された潜在表現シーケンスの情報レートを最大化する閾値を介して潜在表現のクラスタリングを学習する。
この閾値は音響変化に対する予測ステップの感度を効果的に制御し、より長い時間スケールで繰り返しを追跡するフレームワークの能力を決定する。
このアプローチは、音響感受性のレベルごとに音楽信号の全体的情報内容のキャラクタリゼーションを可能にする。
この枠組みの下での知見は,東アジア音楽の伝統において微妙な音響変化に対する感受性は高く,西欧の作品は潜在空間の差のより高い閾値でより長いモチーフ構造を示すことを示している。
このことは,音響的詳細度の関数として分析された情報内容のプロファイルが,文化的特徴として考えられることを示唆している。
関連論文リスト
- Enriching Multimodal Sentiment Analysis through Textual Emotional Descriptions of Visual-Audio Content [56.62027582702816]
マルチモーダル・センティメント・アナリティクスは、テキスト、音声、視覚データを融合することで人間の感情を解き放つことを目指している。
しかし、音声やビデオの表現の中で微妙な感情的なニュアンスを認識することは、恐ろしい挑戦だ。
テキストの感情記述に基づくプログレッシブ・フュージョン・フレームワークであるDEVAを紹介する。
論文 参考訳(メタデータ) (2024-12-12T11:30:41Z) - Structure-informed Positional Encoding for Music Generation [0.0]
トランスフォーマーを用いた音楽生成のための構造インフォームド位置符号化フレームワークを提案する。
我々は、次のステップ予測と伴奏生成という2つのシンボリックな音楽生成タスクでそれらをテストした。
提案手法は, 生成した部品の旋律的および構造的整合性を改善する。
論文 参考訳(メタデータ) (2024-02-20T13:41:35Z) - Impact of time and note duration tokenizations on deep learning symbolic
music modeling [0.0]
共通トークン化手法を解析し、時間と音符の持続時間表現を実験する。
明示的な情報がタスクによってより良い結果をもたらすことを実証する。
論文 参考訳(メタデータ) (2023-10-12T16:56:37Z) - MERT: Acoustic Music Understanding Model with Large-Scale Self-supervised Training [74.32603591331718]
本稿では,MLMスタイルの音響事前学習において,教師モデルと擬似ラベルを組み込んだ大規模自己教師型学習(MERT)を用いた音響音楽理解モデルを提案する。
実験結果から,本モデルでは14曲の楽曲理解タスクを一般化し,性能を向上し,SOTA(State-of-the-art)全体のスコアを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-05-31T18:27:43Z) - Contrastive Learning with Positive-Negative Frame Mask for Music
Representation [91.44187939465948]
本稿では,PEMRと略記したコントラッシブラーニングフレームワークに基づく,音楽表現のための正負負のフレームマスクを提案する。
我々は,同じ音楽からサンプリングした自己増強陽性/陰性の両方に対応するために,新しいコントラスト学習目標を考案した。
論文 参考訳(メタデータ) (2022-03-17T07:11:42Z) - Vector-Quantized Timbre Representation [53.828476137089325]
本稿では, スペクトル特性の近似分解を生成的特徴の集合で学習することにより, 個々の音色をより柔軟に合成することを目的とする。
音量分布の量子化表現を学習するために、大音量から切り離された離散潜在空間を持つオートエンコーダを導入する。
オーケストラ楽器と歌唱音声間の音声の翻訳結果と、ボーカルの模倣音から楽器への変換結果について詳述する。
論文 参考訳(メタデータ) (2020-07-13T12:35:45Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Multi-Modal Music Information Retrieval: Augmenting Audio-Analysis with
Visual Computing for Improved Music Video Analysis [91.3755431537592]
この論文は、音声分析とコンピュータビジョンを組み合わせて、マルチモーダルの観点から音楽情報検索(MIR)タスクにアプローチする。
本研究の主な仮説は、ジャンルやテーマなど特定の表現的カテゴリーを視覚的内容のみに基づいて認識できるという観察に基づいている。
実験は、3つのMIRタスクに対して行われ、アーティスト識別、音楽ジェネア分類、クロスジェネア分類を行う。
論文 参考訳(メタデータ) (2020-02-01T17:57:14Z) - Learning Style-Aware Symbolic Music Representations by Adversarial
Autoencoders [9.923470453197657]
我々は,文脈情報を用いた変動型オートエンコーダを組み込むための,フレキシブルで自然な手段として,逆正則化を活用することに注力する。
第1回音楽Adversarial Autoencoder(MusAE)について紹介する。
我々のモデルは、標準変分オートエンコーダに基づく最先端モデルよりも高い再構成精度を有する。
論文 参考訳(メタデータ) (2020-01-15T18:07:20Z) - Modeling Musical Structure with Artificial Neural Networks [0.0]
音楽構造モデリングのさまざまな側面に対する人工知能の適用について検討する。
Gated Autoencoder(GAE)というコネクショナリストモデルを用いて,楽曲の断片間の変換を学習する方法を示す。
本稿では,ポリフォニック・ミュージックを区間の連続として表現するGAEの特別な予測訓練を提案する。
論文 参考訳(メタデータ) (2020-01-06T18:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。