論文の概要: The Effect of Perceptual Metrics on Music Representation Learning for Genre Classification
- arxiv url: http://arxiv.org/abs/2409.17069v1
- Date: Wed, 25 Sep 2024 16:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 02:54:47.446808
- Title: The Effect of Perceptual Metrics on Music Representation Learning for Genre Classification
- Title(参考訳): ジャンル分類における知覚メトリクスが音楽表現学習に及ぼす影響
- Authors: Tashi Namgyal, Alexander Hepburn, Raul Santos-Rodriguez, Valero Laparra, Jesus Malo,
- Abstract要約: 損失関数として知覚メトリクスで訓練されたモデルが知覚的に意味のある特徴を捉えることができることを示す。
知覚的損失で訓練されたオートエンコーダから抽出した特徴を用いることで,音楽理解タスクのパフォーマンスが向上することが実証された。
- 参考スコア(独自算出の注目度): 42.14708549155406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The subjective quality of natural signals can be approximated with objective perceptual metrics. Designed to approximate the perceptual behaviour of human observers, perceptual metrics often reflect structures found in natural signals and neurological pathways. Models trained with perceptual metrics as loss functions can capture perceptually meaningful features from the structures held within these metrics. We demonstrate that using features extracted from autoencoders trained with perceptual losses can improve performance on music understanding tasks, i.e. genre classification, over using these metrics directly as distances when learning a classifier. This result suggests improved generalisation to novel signals when using perceptual metrics as loss functions for representation learning.
- Abstract(参考訳): 自然信号の主観的品質は、客観的な知覚的指標と近似することができる。
人間の観察者の知覚的振る舞いを近似するために設計された知覚的メトリクスは、しばしば自然の信号や神経学的経路に見られる構造を反映する。
損失関数として知覚メトリクスで訓練されたモデルは、これらのメトリクス内に保持される構造から知覚的に意味のある特徴をキャプチャすることができる。
本研究では,知覚的損失を学習したオートエンコーダから抽出した特徴を用いることで,ジャンル分類などの音楽理解タスクの性能を向上させることができることを示す。
この結果から,表現学習の損失関数として知覚的指標を用いた場合,新しい信号への一般化が示唆された。
関連論文リスト
- Data is Overrated: Perceptual Metrics Can Lead Learning in the Absence
of Training Data [44.659718609385315]
知覚メトリクスは、画像やオーディオなどの自然信号の品質を評価するために伝統的に使用されている。
本研究では,標準的なユークリッド損失を学習したモデルに対して,知覚的損失を伴うトレーニングにより,テスト時の分光図の再構成や音声の再合成が向上することを示す。
論文 参考訳(メタデータ) (2023-12-06T12:27:25Z) - A Symbolic Representation of Human Posture for Interpretable Learning
and Reasoning [2.678461526933908]
我々は,人間の姿勢を,より親しみやすい言葉で表現する質的空間推論手法を導入する。
本稿では,2つのレベルでのシンボル表現の導出と,その予備的利用について述べる。
論文 参考訳(メタデータ) (2022-10-17T12:22:13Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Classification and Adversarial examples in an Overparameterized Linear
Model: A Signal Processing Perspective [10.515544361834241]
最先端のディープラーニング分類器は、無限の逆境摂動に非常に敏感である。
学習されたモデルは、分類が一般化するが回帰はしない中間体制の敵に感受性がある。
敵対的感受性にもかかわらず、これらの特徴による分類は、より一般的に研究されている「非依存的特徴」モデルよりも容易である。
論文 参考訳(メタデータ) (2021-09-27T17:35:42Z) - A Novel mapping for visual to auditory sensory substitution [0.0]
視覚情報は 感覚置換装置を通じて オーディオストリームに変換できる
実物に対する視覚的物体認識の結果は平均88.05となった。
論文 参考訳(メタデータ) (2021-06-14T14:14:50Z) - On the relation between statistical learning and perceptual distances [61.25815733012866]
近辺画像の知覚感度は近辺画像の確率と相関することを示す。
また、オートエンコーダによって誘導される距離と、それらの訓練に使用されるデータの確率分布との関係についても検討する。
論文 参考訳(メタデータ) (2021-06-08T14:56:56Z) - Visualizing and Understanding Vision System [0.6510507449705342]
視覚認識再構成ネットワーク (RRN) を用いて, 発達, 認識, 学習, 忘れるメカニズムについて検討する。
数値認識研究では、RRNが様々な視聴条件下でオブジェクト不変性表現を維持できるのを目撃する。
学習・忘れ研究において、本来のシナプス接続のパターン特異性を保ちつつ、全シナプスを低等級に調整することで、新規な構造認識を行う。
論文 参考訳(メタデータ) (2020-06-11T07:08:49Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。