論文の概要: Real-time error correction and performance aid for MIDI instruments
- arxiv url: http://arxiv.org/abs/2011.13122v1
- Date: Thu, 26 Nov 2020 04:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:25:31.984885
- Title: Real-time error correction and performance aid for MIDI instruments
- Title(参考訳): MIDI機器のリアルタイム誤り訂正と性能支援
- Authors: Georgi Marinov
- Abstract要約: ライブ音楽演奏中に多少の間違いを犯すことは、直感的なリスナーによって容易に発見できる。
このようなエラーを識別し、修正する問題は、人工知能によってアプローチすることができる。
本稿では,関連する問題に対する最先端のソリューションについて検討し,音楽誤りの検出と修正のための新しいソリューションについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Making a slight mistake during live music performance can easily be spotted
by an astute listener, even if the performance is an improvisation or an
unfamiliar piece. An example might be a highly dissonant chord played by
mistake in a classical-era sonata, or a sudden off-key note in a recurring
motif. The problem of identifying and correcting such errors can be approached
with artificial intelligence -- if a trained human can easily do it, maybe a
computer can be trained to spot the errors quickly and just as accurately. The
ability to identify and auto-correct errors in real-time would be not only
extremely useful to performing musicians, but also a valuable asset for
producers, allowing much fewer overdubs and re-recording of takes due to small
imperfections. This paper examines state-of-the-art solutions to related
problems and explores novel solutions for music error detection and correction,
focusing on their real-time applicability. The explored approaches consider
error detection through music context and theory, as well as supervised
learning models with no predefined musical information or rules, trained on
appropriate datasets. Focusing purely on correcting musical errors, the
presented solutions operate on a high-level representation of the audio (MIDI)
instead of the raw audio domain, taking input from an electronic instrument
(MIDI keyboard/piano) and altering it when needed before it is sent to the
sampler. This work proposes multiple general recurrent neural network designs
for real-time error correction and performance aid for MIDI instruments,
discusses the results, limitations, and possible future improvements. It also
emphasizes on making the research results easily accessible to the end user -
music enthusiasts, producers and performers -- by using the latest artificial
intelligence platforms and tools.
- Abstract(参考訳): 即興演奏や不慣れな曲であっても、ライブ演奏中にわずかな間違いを犯すことは、見事なリスナーによって容易に発見できる。
例えば、古典時代のソナタで誤って演奏された非常に不協和音や、繰り返しモチーフの突然のオフキー音である。
そうしたエラーを識別して修正する問題は、人工知能によってアプローチできる -- もし訓練された人間が簡単にできるなら、コンピューターは、できるだけ正確にエラーを素早く見つけられるように訓練できるかもしれない。
リアルタイムにエラーを識別し、自動修正する能力は、演奏するミュージシャンにとって非常に有用であるだけでなく、プロデューサーにとって貴重な資産であり、わずかな不完全さによる過剰な重複と再記録を許容する。
本稿では,関連問題に対する最先端ソリューションについて検討し,そのリアルタイム適用性に着目した音楽誤り検出と修正のための新しいソリューションについて検討する。
提案手法では,音楽の文脈や理論による誤り検出や,適切なデータセットに基づいて訓練された事前定義された音楽情報や規則を持たない教師付き学習モデルを検討する。
提示されたソリューションは、純粋に音楽的誤りの修正に焦点を合わせ、生のオーディオ領域ではなく、オーディオ(MIDI)のハイレベルな表現で動作し、電子楽器(MIDIキーボード/ピアノ)から入力を受け、サンプリング装置に送信する前に必要に応じて変更する。
本研究は,midi機器のリアルタイム誤り訂正と性能支援のために,複数の汎用リカレントニューラルネットワークの設計を提案し,結果,限界,今後の改善の可能性について議論する。
また、最新の人工知能プラットフォームとツールを使用することで、研究結果をエンドユーザー音楽愛好家やプロデューサー、パフォーマーに容易にアクセスできるようにすることも強調している。
関連論文リスト
- Towards Explainable and Interpretable Musical Difficulty Estimation: A Parameter-efficient Approach [49.2787113554916]
音楽コレクションの整理には曲の難易度を推定することが重要である。
シンボリックな音楽表現の難易度推定には説明可能な記述子を用いる。
ピアノレパートリーで評価したアプローチは,平均2乗誤差(MSE)が1.7。
論文 参考訳(メタデータ) (2024-08-01T11:23:42Z) - MuseBarControl: Enhancing Fine-Grained Control in Symbolic Music Generation through Pre-Training and Counterfactual Loss [51.85076222868963]
制御信号と対応する音楽トークンを直接リンクする事前学習タスクを導入する。
次に、生成した音楽と制御プロンプトとの整合性を向上する新たな対実的損失を実現する。
論文 参考訳(メタデータ) (2024-07-05T08:08:22Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - Music Instrument Classification Reprogrammed [79.68916470119743]
プログラム」とは、事前学習されたモデルの入力と出力の両方を修正・マッピングすることで、もともと異なるタスクをターゲットにした、事前学習された深層・複雑なニューラルネットワークを利用する手法である。
本研究では,異なるタスクで学習した表現のパワーを効果的に活用できることを実証し,結果として得られた再プログラムシステムは,訓練パラメータのごく一部で,同等あるいはそれ以上の性能を持つシステムでも実行可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-15T18:26:01Z) - Comparision Of Adversarial And Non-Adversarial LSTM Music Generative
Models [2.569647910019739]
この研究は、MIDIデータに基づいて、リカレントニューラルネットワーク音楽作曲家の敵対的および非敵対的な訓練を実装し、比較する。
この評価は, 対人訓練がより審美的に楽しむ音楽を生み出すことを示唆している。
論文 参考訳(メタデータ) (2022-11-01T20:23:49Z) - SongDriver: Real-time Music Accompaniment Generation without Logical
Latency nor Exposure Bias [15.7153621508319]
SongDriverは論理遅延や露出バイアスのないリアルタイム音楽伴奏生成システムである。
SongDriverを、いくつかのオープンソースのデータセットと、中国風のモダンなポップミュージックスコアから構築されたオリジナルのaiSongデータセットでトレーニングします。
その結果,SongDriverは客観的および主観的指標の両方において既存のSOTAモデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:05:27Z) - A Transformer Based Pitch Sequence Autoencoder with MIDI Augmentation [0.0]
本研究の目的は,MIDIクリップが自動生成仮説に基づいて構成される可能性を示すモデルを得ることである。
実験結果は、CSMT(2020)のデータチャレンジにおける7ドルチームの中で、私たちのモデルが3位にランクされていることを示している。
論文 参考訳(メタデータ) (2020-10-15T13:59:58Z) - The MIDI Degradation Toolkit: Symbolic Music Augmentation and Correction [14.972219905728963]
我々はMIDI分解ツールキット (MDTK) を紹介し、音楽の抜粋を入力として含む関数を含む。
このツールキットを使って、AlteredとCorrupted MIDI Excerptsのデータセットバージョン1.0を作成します。
劣化の検出・分類・発見・修正が困難になる4つの課題を提案する。
論文 参考訳(メタデータ) (2020-09-30T19:03:35Z) - Foley Music: Learning to Generate Music from Videos [115.41099127291216]
Foley Musicは、楽器を演奏する人々に関するサイレントビデオクリップのために、可愛らしい音楽を合成できるシステムだ。
まず、ビデオから音楽生成に成功するための2つの重要な中間表現、すなわち、ビデオからのボディーキーポイントと、オーディオ録音からのMIDIイベントを識別する。
身体の動きに応じてMIDIイベントシーケンスを正確に予測できるグラフ$-$Transformerフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-21T17:59:06Z) - Audio Impairment Recognition Using a Correlation-Based Feature
Representation [85.08880949780894]
本稿では,特徴対の相関に基づく手作り特徴の新しい表現を提案する。
実験段階において,コンパクトな特徴次元と計算速度の向上の観点から,優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-22T13:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。