論文の概要: Semi-Supervised Convolutive NMF for Automatic Music Transcription
- arxiv url: http://arxiv.org/abs/2202.04989v1
- Date: Thu, 10 Feb 2022 12:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-12 00:17:19.486536
- Title: Semi-Supervised Convolutive NMF for Automatic Music Transcription
- Title(参考訳): 半監督型コンバーチブNMFによる音楽自動転写
- Authors: Haoran Wu, Axel Marmoret, J\'er\'emy E. Cohen
- Abstract要約: 本稿では,低ランク行列因数分解法,特に非負行列因数分解法を用いた半教師付き手法を提案する。
提案した半教師付きCNMF法は最先端の低ランク因数分解法より優れており,教師付き深層学習法より若干劣っていることを示す。
- 参考スコア(独自算出の注目度): 6.583111368144214
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic Music Transcription, which consists in transforming an audio
recording of a musical performance into symbolic format, remains a difficult
Music Information Retrieval task. In this work, we propose a semi-supervised
approach using low-rank matrix factorization techniques, in particular
Convolutive Nonnegative Matrix Factorization. In the semi-supervised setting,
only a single recording of each individual notes is required.
We show on the MAPS dataset that the proposed semi-supervised CNMF method
performs better than state-of-the-art low-rank factorization techniques and a
little worse than supervised deep learning state-of-the-art methods, while
however suffering from generalization issues.
- Abstract(参考訳): 音楽演奏の音声録音をシンボリックな形式に変換することからなる自動音楽転写は、依然として難しい音楽情報検索課題である。
本研究では,低ランク行列分解,特に畳み込み非負行列分解を用いた半教師付き手法を提案する。
半教師付き設定では、個々の音符の1つの記録のみが必要である。
本稿では,提案する半教師付きcnmf法が最先端の低ランク因子分解技術よりも優れており,一般化に苦しむ一方で,教師付き深層学習法よりも若干劣っていることをmapsデータセットに示す。
関連論文リスト
- Efficient Diffusion Transformer with Step-wise Dynamic Attention Mediators [83.48423407316713]
本稿では,クエリとキーを別々に扱うために,追加の仲介者トークンを組み込んだ新しい拡散トランスフォーマーフレームワークを提案する。
本モデルでは, 正確な非曖昧な段階を呈し, 詳細に富んだ段階へと徐々に遷移する。
本手法は,最近のSiTと統合した場合に,最先端のFIDスコア2.01を達成する。
論文 参考訳(メタデータ) (2024-08-11T07:01:39Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - Machine Learning Techniques in Automatic Music Transcription: A Systematic Survey [2.4895506645605123]
本稿では,音楽信号解析におけるAMT(Automatic Music Transcription)の役割について述べる。
顕著な進歩にもかかわらず、ATTシステムはまだ人間の専門家の精度に合わない。
従来の手法の限界に対処し,改善の道筋を提案することにより,完全自動化型ATTシステムに向けた今後の研究を推し進めることが目的である。
論文 参考訳(メタデータ) (2024-06-20T03:48:15Z) - End-to-End Full-Page Optical Music Recognition for Pianoform Sheet Music [12.779526750915707]
我々は、ページレベルの光音楽認識のための、真にエンドツーエンドなアプローチを初めて提示する。
本システムでは,音楽スコアページ全体を処理し,完全書き起こしを楽曲エンコーディング形式で出力する。
その結果,本システムは,全ページの楽譜の書き起こしに成功しただけでなく,ゼロショット設定とターゲットドメインとの微調整の両面において,商業ツールよりも優れていた。
論文 参考訳(メタデータ) (2024-05-20T15:21:48Z) - Sheet Music Transformer: End-To-End Optical Music Recognition Beyond Monophonic Transcription [13.960714900433269]
Sheet Music Transformer(シート・ミュージック・トランスフォーマー)は、モノフォニック・ストラテジーのみに頼らずに複雑な楽譜を転写するために設計された最初のエンドツーエンドのOMRモデルである。
我々のモデルは2つのポリフォニック音楽データセットでテストされており、これらの複雑な音楽構造を効果的に扱えることが証明されている。
論文 参考訳(メタデータ) (2024-02-12T11:52:21Z) - DITTO: Diffusion Inference-Time T-Optimization for Music Generation [49.90109850026932]
Diffusion Inference-Time T-Optimization (DITTO) は、事前訓練されたテキストから音楽への拡散モデルを推論時に制御するためのフレームワークである。
我々は、インペイント、アウトペイント、ループ化、強度、メロディ、音楽構造制御など、驚くほど幅広い音楽生成応用を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:10:10Z) - Masked Audio Generation using a Single Non-Autoregressive Transformer [90.11646612273965]
MAGNeTは、複数のオーディオトークンストリーム上で直接動作するマスク付き生成シーケンスモデリング手法である。
テキスト・トゥ・ミュージック・アンド・テキスト・トゥ・オーディオ・ジェネレーションのタスクにおけるMAGNeTの有効性を実証する。
我々は、自己回帰と非自己回帰モデリングのトレードオフを指摘するとともに、MAGNeTを構成する各コンポーネントの重要性を強調した。
論文 参考訳(メタデータ) (2024-01-09T14:29:39Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z) - Unaligned Supervision For Automatic Music Transcription in The Wild [1.2183405753834562]
NoteEMは、トランクレーバーを同時に訓練し、スコアを対応するパフォーマンスに合わせる方法である。
我々は、MAPSデータセットのSOTAノートレベル精度と、データセット間の評価において好適なマージンを報告した。
論文 参考訳(メタデータ) (2022-04-28T17:31:43Z) - MT3: Multi-Task Multitrack Music Transcription [7.5947187537718905]
汎用トランスフォーマーモデルがマルチタスク自動音楽転写(AMT)を実現できることを示す。
この統合トレーニングフレームワークは、さまざまなデータセットにわたる高品質な書き起こし結果を実現する。
論文 参考訳(メタデータ) (2021-11-04T17:19:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。