論文の概要: SSM-Net: feature learning for Music Structure Analysis using a
Self-Similarity-Matrix based loss
- arxiv url: http://arxiv.org/abs/2211.08141v1
- Date: Tue, 15 Nov 2022 13:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 16:12:39.594431
- Title: SSM-Net: feature learning for Music Structure Analysis using a
Self-Similarity-Matrix based loss
- Title(参考訳): SSM-Net:自己相似行列に基づく損失を用いた音楽構造解析のための特徴学習
- Authors: Geoffroy Peeters and Florian Angulo
- Abstract要約: 我々は、深層エンコーダを訓練し、SSM (Self-Similarity-Matrix) という特徴を学習する。
RWC-Popデータセット上で、AUC(Area Under the Curve ROC)を用いて、このトレーニングパラダイムの使用を実証した。
- 参考スコア(独自算出の注目度): 7.599399338954308
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new paradigm to learn audio features for Music
Structure Analysis (MSA). We train a deep encoder to learn features such that
the Self-Similarity-Matrix (SSM) resulting from those approximates a
ground-truth SSM. This is done by minimizing a loss between both SSMs. Since
this loss is differentiable w.r.t. its input features we can train the encoder
in a straightforward way. We successfully demonstrate the use of this training
paradigm using the Area Under the Curve ROC (AUC) on the RWC-Pop dataset.
- Abstract(参考訳): 本稿では,音楽構造解析(MSA)のための音声特徴を学習するための新しいパラダイムを提案する。
我々は、深層エンコーダを訓練し、SSM (Self-Similarity-Matrix) という特徴を学習する。
これは両方のssm間の損失を最小限にすることで行われる。
この損失はw.r.t.と区別できるので、直接的にエンコーダを訓練することができる。
RWC-Popデータセット上で、AUC(Area Under the Curve ROC)を用いて、このトレーニングパラダイムの使用を実証した。
関連論文リスト
- Self-Similarity-Based and Novelty-based loss for music structure
analysis [5.3900692419866285]
音楽境界検出のタスクに対する教師付きアプローチを提案する。
このアプローチでは、機能と畳み込みカーネルを同時に学習します。
自己注意による相対的特徴学習は,MSAの課題に有益であることを示す。
論文 参考訳(メタデータ) (2023-09-05T13:49:29Z) - Systematic Investigation of Sparse Perturbed Sharpness-Aware
Minimization Optimizer [158.2634766682187]
ディープニューラルネットワークは、複雑で非構造的なロスランドスケープのため、しばしば一般化の貧弱さに悩まされる。
SharpnessAware Minimization (SAM) は、摂動を加える際の景観の変化を最小限に抑えることで損失を平滑化するポピュラーなソリューションである。
本稿では,二元マスクによる摂動を効果的かつ効果的に行う訓練手法であるスパースSAMを提案する。
論文 参考訳(メタデータ) (2023-06-30T09:33:41Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - MELTR: Meta Loss Transformer for Learning to Fine-tune Video Foundation
Models [10.10825306582544]
本稿では,様々な損失関数を自動かつ非線形に組み合わせて,補助学習による目標タスクの学習を支援するプラグインモジュールであるMeta Loss TRansformerを提案する。
評価のために、我々のフレームワークを様々なビデオ基盤モデル(UniVL、Violet、All-in-one)に適用し、4つのダウンストリームタスクにおいて大きなパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-03-23T03:06:44Z) - Extended Unconstrained Features Model for Exploring Deep Neural Collapse [59.59039125375527]
近年、ディープニューラルネットワークで「神経崩壊」(NC)と呼ばれる現象が経験的に観察されている。
最近の論文は、単純化された「制約なし特徴モデル」を最適化する際に、この構造を持つ最小化器が出現することを示している。
本稿では, 正規化MSE損失に対するUDFについて検討し, クロスエントロピーの場合よりも最小化器の特徴がより構造化可能であることを示す。
論文 参考訳(メタデータ) (2022-02-16T14:17:37Z) - Automated Audio Captioning using Transfer Learning and Reconstruction
Latent Space Similarity Regularization [21.216783537997426]
本稿では,PANNが自動音声キャプチャータスクに提供した音響特性をよりよく活用するアーキテクチャを提案する。
また、新しい自己監督型ラテント空間類似度正規化(RLSSR)も導入する。
論文 参考訳(メタデータ) (2021-08-10T13:49:41Z) - Knowledge Distillation By Sparse Representation Matching [107.87219371697063]
本稿では,一方の畳み込みネットワーク(cnn)から他方へ,スパース表現を用いて中間知識を伝達するスパース表現マッチング(srm)を提案する。
勾配降下を利用して効率的に最適化し、任意のCNNにプラグアンドプレイで統合できるニューラルプロセッシングブロックとして定式化します。
実験の結果,教師と生徒のネットワーク間のアーキテクチャの違いに頑健であり,複数のデータセットにまたがる他のkd技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-31T11:47:47Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - On Parameter Tuning in Meta-learning for Computer Vision [2.3513645401551333]
本稿では,学習情報に制限のあるデータセットの未確認カテゴリに対するマージ認識について検討する。
この目的を達成するためにゼロショット学習(ZSL)アルゴリズムをデプロイする。
また,パラメータチューニングが意味的オートエンコーダ(SAE)の性能に及ぼす影響についても検討する。
論文 参考訳(メタデータ) (2020-02-11T15:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。