論文の概要: Polyphonic Piano Transcription Using Autoregressive Multi-State Note
Model
- arxiv url: http://arxiv.org/abs/2010.01104v1
- Date: Fri, 2 Oct 2020 17:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 02:42:01.615225
- Title: Polyphonic Piano Transcription Using Autoregressive Multi-State Note
Model
- Title(参考訳): 自己回帰型マルチステートノートモデルを用いたポリフォニックピアノの転写
- Authors: Taegyun Kwon, Dasaem Jeong and Juhan Nam
- Abstract要約: 単一損失関数を持つソフトマックス出力として複数の音符状態が予測される統一ニューラルネットワークアーキテクチャを提案する。
提案モデルでは,パラメータの少ない最先端技術に匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 6.65616155956618
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in polyphonic piano transcription have been made primarily by
a deliberate design of neural network architectures that detect different note
states such as onset or sustain and model the temporal evolution of the states.
The majority of them, however, use separate neural networks for each note
state, thereby optimizing multiple loss functions, and also they handle the
temporal evolution of note states by abstract connections between the
state-wise neural networks or using a post-processing module. In this paper, we
propose a unified neural network architecture where multiple note states are
predicted as a softmax output with a single loss function and the temporal
order is learned by an auto-regressive connection within the single neural
network. This compact model allows to increase note states without
architectural complexity. Using the MAESTRO dataset, we examine various
combinations of multiple note states including on, onset, sustain, re-onset,
offset, and off. We also show that the autoregressive module effectively learns
inter-state dependency of notes. Finally, we show that our proposed model
achieves performance comparable to state-of-the-arts with fewer parameters.
- Abstract(参考訳): ポリフォニックピアノの書き起こしの最近の進歩は、主に、状態の時間的進化の開始や維持、モデル化といった異なる音符状態を検出するニューラルネットワークアーキテクチャを意図的に設計することによる。
しかし、大多数は個々のノート状態に別々のニューラルネットワークを使用し、それによって複数の損失関数を最適化し、ステートワイドニューラルネットワーク間の抽象的な接続や後処理モジュールを使用することで、ノート状態の時間的進化を処理する。
本稿では,単一損失関数を持つソフトマックス出力として複数の音符状態が予測され,単一ニューラルネットワーク内の自己回帰接続によって時間順序が学習される統一ニューラルネットワークアーキテクチャを提案する。
このコンパクトモデルは、アーキテクチャの複雑さなしにメモ状態を増やすことができる。
MAESTROデータセットを用いて、オン、オンセット、サスペンション、再オンセット、オフセット、オフを含む複数のノート状態の組み合わせを調べる。
また,オートレグレッシブモジュールがノートの州間依存性を効果的に学習することを示す。
最後に,提案モデルが,パラメータの少ない最先端技術に匹敵する性能を実現することを示す。
関連論文リスト
- Towards Efficient and Real-Time Piano Transcription Using Neural Autoregressive Models [7.928003786376716]
畳み込みリカレントニューラルネットワークのための新しいアーキテクチャを提案する。
我々は、ピッチワイズLSTMを用いて、音符状態のシーケンスモデリングを改善する。
我々は,提案モデルがMAESTROデータセットの音符精度の観点から,最先端モデルに匹敵することを示す。
論文 参考訳(メタデータ) (2024-04-10T08:06:15Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Modeling Structure with Undirected Neural Networks [20.506232306308977]
任意の順序で実行できる計算を指定するためのフレキシブルなフレームワークである、非指向型ニューラルネットワークを提案する。
さまざまなタスクにおいて、非構造的かつ構造化された非指向型ニューラルアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2022-02-08T10:06:51Z) - Discrete-Valued Neural Communication [85.3675647398994]
コンポーネント間で伝達される情報を離散表現に制限することは、有益なボトルネックであることを示す。
個人は「猫」が特定の経験に基づいて何であるかについて異なる理解を持っているが、共有された離散トークンは、個人間のコミュニケーションが内部表現の個人差によって切り離されることを可能にする。
我々は、量子化機構をベクトル量子化変分オートコーダから共有符号ブックによる多頭部離散化に拡張し、離散値ニューラル通信に利用する。
論文 参考訳(メタデータ) (2021-07-06T03:09:25Z) - CARRNN: A Continuous Autoregressive Recurrent Neural Network for Deep
Representation Learning from Sporadic Temporal Data [1.8352113484137622]
本稿では,散発データにおける複数の時間的特徴をモデル化するための新しい深層学習モデルを提案する。
提案モデルはCARRNNと呼ばれ、時間ラグによって変調されたニューラルネットワークを用いてエンドツーエンドにトレーニング可能な一般化された離散時間自己回帰モデルを使用する。
アルツハイマー病進行モデルおよび集中治療単位(ICU)死亡率予測のためのデータを用いて,多変量時系列回帰タスクに適用した。
論文 参考訳(メタデータ) (2021-04-08T12:43:44Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Neural Closure Models for Dynamical Systems [35.000303827255024]
低忠実度モデルに対する非マルコフ閉閉パラメータ化を学習する新しい手法を開発した。
ニューラルクロージャモデル」はニューラル遅延微分方程式(nDDE)を用いた低忠実度モデルを強化する
非マルコヴィアンオーバーマルコヴィアンクロージャを使用することで、長期的精度が向上し、より小さなネットワークが必要であることを示した。
論文 参考訳(メタデータ) (2020-12-27T05:55:33Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。