論文の概要: The MIDI Degradation Toolkit: Symbolic Music Augmentation and Correction
- arxiv url: http://arxiv.org/abs/2010.00059v1
- Date: Wed, 30 Sep 2020 19:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:38:59.233888
- Title: The MIDI Degradation Toolkit: Symbolic Music Augmentation and Correction
- Title(参考訳): MIDI分解ツールキット:シンボリック・ミュージックの強化と補正
- Authors: Andrew McLeod, James Owers, Kazuyoshi Yoshii
- Abstract要約: 我々はMIDI分解ツールキット (MDTK) を紹介し、音楽の抜粋を入力として含む関数を含む。
このツールキットを使って、AlteredとCorrupted MIDI Excerptsのデータセットバージョン1.0を作成します。
劣化の検出・分類・発見・修正が困難になる4つの課題を提案する。
- 参考スコア(独自算出の注目度): 14.972219905728963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce the MIDI Degradation Toolkit (MDTK), containing
functions which take as input a musical excerpt (a set of notes with pitch,
onset time, and duration), and return a "degraded" version of that excerpt with
some error (or errors) introduced. Using the toolkit, we create the Altered and
Corrupted MIDI Excerpts dataset version 1.0 (ACME v1.0), and propose four tasks
of increasing difficulty to detect, classify, locate, and correct the
degradations. We hypothesize that models trained for these tasks can be useful
in (for example) improving automatic music transcription performance if applied
as a post-processing step. To that end, MDTK includes a script that measures
the distribution of different types of errors in a transcription, and creates a
degraded dataset with similar properties. MDTK's degradations can also be
applied dynamically to a dataset during training (with or without the above
script), generating novel degraded excerpts each epoch. MDTK could also be used
to test the robustness of any system designed to take MIDI (or similar) data as
input (e.g. systems designed for voice separation, metrical alignment, or chord
detection) to such transcription errors or otherwise noisy data. The toolkit
and dataset are both publicly available online, and we encourage contribution
and feedback from the community.
- Abstract(参考訳): 本稿では,MIDI分解ツールキット(MDTK)を導入し,音符(音符,音符,音符,音符,音符,音符,音符,音符)を入力として入力し,その「劣化」バージョンを何らかの誤り(または誤り)で返却する機能について述べる。
このツールキットを用いて、Altered and Corrupted MIDI Excerpts dataset Version 1.0 (ACME v1.0)を作成し、劣化の検出、分類、発見、修正を困難にする4つのタスクを提案する。
これらのタスク用にトレーニングされたモデルが、(例えば)後処理ステップとして適用すれば、自動書き起こし性能を改善するのに役立つと仮定する。
この目的のために、MDTKは書き起こし中の異なるタイプのエラーの分布を測定し、同様の特性を持つ劣化データセットを生成するスクリプトを含んでいる。
MDTKの劣化は、トレーニング中のデータセット(上記スクリプトの有無に関わらず)に動的に適用することができ、各エポックごとに新しく劣化した抜粋を生成する。
MDTKはまた、MIDI(または類似した)データを入力(例えば、音声分離、メートル法アライメント、コード検出のために設計されたシステム)として、このような書き起こしエラーやノイズの多いデータに使用するように設計されたシステムの堅牢性をテストするためにも使用できる。
toolkitとdatasetはどちらもオンラインで公開されており、コミュニティからのコントリビューションとフィードバックを奨励しています。
関連論文リスト
- YourMT3+: Multi-instrument Music Transcription with Enhanced Transformer Architectures and Cross-dataset Stem Augmentation [15.9795868183084]
マルチストラクチャメント音楽の書き起こしは、ポリフォニック音楽の録音を各楽器に割り当てられた楽譜に変換することを目的としている。
本稿では、マルチストラクチャメント音楽の書き起こし強化のためのモデルの組であるYourMT3+を紹介する。
実験では,音声分離前処理装置の不要さを排除し,直接音声書き起こし機能を示す。
論文 参考訳(メタデータ) (2024-07-05T19:18:33Z) - Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening [51.34904967046097]
本稿では,パラメータチューニングの必要性を排除した選択的シナプス減衰アンラーニング法の拡張を提案する。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
このアプローチの適用は、サプライチェーン管理などの産業環境において特に魅力的である。
論文 参考訳(メタデータ) (2024-02-06T14:04:31Z) - Timbre-Trap: A Low-Resource Framework for Instrument-Agnostic Music
Transcription [19.228155694144995]
Timbre-Trapは、音楽の書き起こしと音声の再構成を統合する新しいフレームワークである。
我々は1つのオートエンコーダを訓練し、ピッチサリエンスを同時に推定し、複雑なスペクトル係数を再構成する。
このフレームワークは、最先端の楽器に依存しない書き起こし手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-09-27T15:19:05Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Anomalous Sound Detection using Audio Representation with Machine ID
based Contrastive Learning Pretraining [52.191658157204856]
コントラスト学習を用いて、各音声サンプルではなく、各機械IDの音声表現を洗練する。
提案手法では、コントラスト学習を用いて音声表現モデルを事前学習する。
実験の結果,本手法はコントラスト学習や自己教師型分類を用いて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-04-07T11:08:31Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Unaligned Supervision For Automatic Music Transcription in The Wild [1.2183405753834562]
NoteEMは、トランクレーバーを同時に訓練し、スコアを対応するパフォーマンスに合わせる方法である。
我々は、MAPSデータセットのSOTAノートレベル精度と、データセット間の評価において好適なマージンを報告した。
論文 参考訳(メタデータ) (2022-04-28T17:31:43Z) - Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese
Grammatical Error Correction [49.25830718574892]
本稿では,Tail-to-Tail (textbfTtT) という新しいフレームワークを提案する。
ほとんどのトークンが正しいので、ソースからターゲットに直接転送でき、エラー位置を推定して修正することができる。
標準データセット、特に可変長データセットに関する実験結果は、文レベルの精度、精度、リコール、F1-Measureの観点からTtTの有効性を示す。
論文 参考訳(メタデータ) (2021-06-03T05:56:57Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - A Transformer Based Pitch Sequence Autoencoder with MIDI Augmentation [0.0]
本研究の目的は,MIDIクリップが自動生成仮説に基づいて構成される可能性を示すモデルを得ることである。
実験結果は、CSMT(2020)のデータチャレンジにおける7ドルチームの中で、私たちのモデルが3位にランクされていることを示している。
論文 参考訳(メタデータ) (2020-10-15T13:59:58Z) - Improving Perceptual Quality of Drum Transcription with the Expanded
Groove MIDI Dataset [2.3204178451683264]
拡張Groove MIDIデータセット(E-GMD)には43個のドラムキットから444時間のオーディオが含まれている。
我々はE-GMDを用いて,表現力学(速度)を予測して下流生成に使用する分類器を最適化し,音質を向上した聴取試験を行った。
論文 参考訳(メタデータ) (2020-04-01T01:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。