論文の概要: Nonnegative Tucker Decomposition with Beta-divergence for Music
Structure Analysis of audio signals
- arxiv url: http://arxiv.org/abs/2110.14434v1
- Date: Wed, 27 Oct 2021 13:46:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 18:22:32.081366
- Title: Nonnegative Tucker Decomposition with Beta-divergence for Music
Structure Analysis of audio signals
- Title(参考訳): 音楽構造解析のためのベータ分割を用いた非負タッカー分解
- Authors: Axel Marmoret, Florian Voorwinden, Valentin Leplat, J\'er\'emy E.
Cohen, Fr\'ed\'eric Bimbot
- Abstract要約: 非負のタッカー分解(NTD)は、テンソルデータにおいて意味のあるパターンを盲目的に抽出する能力のため、近年注目されている。
この研究は、ベータ分割損失でNTDを演算する乗算更新アルゴリズムを提案する。
音楽構造解析タスクにおいて,ベータ分割損失を伴わないNTDがユークリッド損失よりも優れていたことを示す。
- 参考スコア(独自算出の注目度): 6.037276428689637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nonnegative Tucker Decomposition (NTD), a tensor decomposition model, has
received increased interest in the recent years because of its ability to
blindly extract meaningful patterns in tensor data. Nevertheless, existing
algorithms to compute NTD are mostly designed for the Euclidean loss. On the
other hand, NTD has recently proven to be a powerful tool in Music Information
Retrieval. This work proposes a Multiplicative Updates algorithm to compute NTD
with the beta-divergence loss, often considered a better loss for audio
processing. We notably show how to implement efficiently the multiplicative
rules using tensor algebra, a naive approach being intractable. Finally, we
show on a Music Structure Analysis task that unsupervised NTD fitted with
beta-divergence loss outperforms earlier results obtained with the Euclidean
loss.
- Abstract(参考訳): テンソル分解モデルである非負タッカー分解(NTD)は、テンソルデータ中の有意なパターンを盲目的に抽出する能力から近年注目されている。
それでも、NTDを計算するための既存のアルゴリズムは、主にユークリッド損失のために設計されている。
一方,NTDは近年,音楽情報検索において強力なツールであることが証明されている。
本研究は、音声処理においてより優れた損失と見なされるベータ・ディバージェンス損失を伴うntdを計算するための乗法的更新アルゴリズムを提案する。
特に,難解なアプローチであるテンソル代数を用いて,乗法規則を効率的に実装する方法を示す。
最後に,非教師付きntdがベータダイバージェンス損失に適合する音楽構造解析タスクが,ユークリッド損失で得られた先行結果を上回っていることを示す。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning [47.904127007515925]
本稿では,従来の時間差学習アルゴリズムの変種について検討する。
我々は、圧縮されたTDアルゴリズムと、最適化に広く用いられているエラーフィードバック機構が組み合わさって、漸近的でない近似を保証することを証明した。
特に、これらは一般圧縮演算子と線形関数近似とマルコフサンプリングを併用したタンデムの誤差フィードバックを考慮に入れたRLにおける最初の有限時間結果である。
論文 参考訳(メタデータ) (2023-01-03T04:09:38Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - DeepTensor: Low-Rank Tensor Decomposition with Deep Network Priors [45.183204988990916]
DeepTensor(ディープテンソル)は、行列とテンソルの低ランク分解のためのフレームワークである。
3次元MRIトモグラフィー、画像分類など、様々な実世界の応用について検討する。
論文 参考訳(メタデータ) (2022-04-07T01:09:58Z) - Anti-Concentrated Confidence Bonuses for Scalable Exploration [57.91943847134011]
固有の報酬は、探検と探検のトレードオフを扱う上で中心的な役割を果たす。
楕円ボーナスを効率的に近似するためのエンファンティ集中型信頼境界を導入する。
我々は,Atariベンチマーク上での現代固有の報酬と競合する,深層強化学習のための実用的な変種を開発する。
論文 参考訳(メタデータ) (2021-10-21T15:25:15Z) - Efficient Tensor Completion via Element-wise Weighted Low-rank Tensor
Train with Overlapping Ket Augmentation [18.438177637687357]
本稿では,要素重み付け手法による新しいテンソル完備化手法を提案する。
具体的には,隣接ブロックからのエッジ要素の回復品質について検討する。
実験結果から,提案アルゴリズムのTWMac-TTは,他の競合するテンソル補完法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-09-13T06:50:37Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - A Generalized Neural Tangent Kernel Analysis for Two-layer Neural
Networks [87.23360438947114]
重み劣化を伴う雑音勾配降下は依然として「カーネル様」の挙動を示すことを示す。
これは、トレーニング損失が一定の精度まで線形に収束することを意味する。
また,重み劣化を伴う雑音勾配勾配勾配で学習した2層ニューラルネットワークに対して,新しい一般化誤差を確立する。
論文 参考訳(メタデータ) (2020-02-10T18:56:15Z) - Grassmannian Optimization for Online Tensor Completion and Tracking with
the t-SVD [10.137631021498109]
t-SVD は三次テンソルに対するよく研究されたブロック項分解の特殊化であることを示す。
非完全ストリーミング2次元データから自由部分加群の変化を追跡するアルゴリズムを提案する。
提案手法は精度は高いが, 実アプリケーション上での最先端のテンソル補完アルゴリズムよりも計算時間の方がはるかに高速である。
論文 参考訳(メタデータ) (2020-01-30T15:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。