論文の概要: From MIDI to Rich Tablatures: an Automatic Generative System incorporating Lead Guitarists' Fingering and Stylistic choices
- arxiv url: http://arxiv.org/abs/2407.09052v1
- Date: Fri, 12 Jul 2024 07:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:17:04.569065
- Title: From MIDI to Rich Tablatures: an Automatic Generative System incorporating Lead Guitarists' Fingering and Stylistic choices
- Title(参考訳): MIDIからリッチタブラチュアへ:リードギター奏者の指とスティリスティックな選択を取り入れた自動生成システム
- Authors: Pierluigi Bontempi, Daniele Manerba, Alexandre D'Hooge, Sergio Canazza,
- Abstract要約: 簡単なMIDIメロディから,指や調音,表現技術に富んだタブを生成できるシステムを提案する。
提案手法の質と高い構成性はいくつかの影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 42.362388367152256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the automatic identification of the optimal fingering for the performance of melodies on fretted string instruments has already been addressed (at least partially) in the literature, the specific case regarding lead electric guitar requires a dedicated approach. We propose a system that can generate, from simple MIDI melodies, tablatures enriched by fingerings, articulations, and expressive techniques. The basic fingering is derived by solving a constrained and multi-attribute optimization problem, which derives the best position of the fretting hand, not just the finger used at each moment.Then, by analyzing statistical data from the mySongBook corpus, the most common clich{\'e}s and biomechanical feasibility, articulations, and expressive techniques are introduced. Finally, the obtained output is converted into MusicXML format, which allows for easy visualization and use. The quality of the tablatures derived and the high configurability of the proposed approach can have several impacts, in particular in the fields of instrumental teaching, assisted composition and arranging, and computational expressive music performance models.
- Abstract(参考訳): 弦楽器のメロディ演奏に最適な指の自動識別は、文献では(少なくとも部分的には)既に行われているが、リードエレキギターに関する特定のケースには、専用のアプローチが必要である。
簡単なMIDIメロディから,指や調音,表現技術に富んだタブを生成できるシステムを提案する。
基本指は,各瞬間に使用する指だけでなく,フレッティングハンドの最適な位置を導出する制約付き多属性最適化問題の解法から導かれるもので,MySongBook corpusの統計データを解析することにより,最も一般的なclich{\'e}と生体力学的実現性,調音,表現技術を導入している。
最後に、得られた出力はMusicXMLフォーマットに変換され、視覚化と使用が容易になる。
提案手法の質と高い構成性は、特に器楽教育、補助的な作曲とアレンジング、および計算的表現力のある演奏モデルにおいて、いくつかの影響を及ぼす可能性がある。
関連論文リスト
- TapToTab : Video-Based Guitar Tabs Generation using AI and Audio Analysis [0.0]
本稿では,ディープラーニング,特にリアルタイムフレットボード検出のためのYOLOモデルを活用した高度なアプローチを提案する。
実験の結果,従来の手法に比べて検出精度とロバスト性は著しく向上した。
本稿では,ビデオ録音からギタータブを自動生成することで,ギター指導に革命をもたらすことを目的とする。
論文 参考訳(メタデータ) (2024-09-13T08:17:15Z) - MIDI-to-Tab: Guitar Tablature Inference via Masked Language Modeling [6.150307957212576]
シンボリックギターのタブリング推定のための新しいディープラーニングソリューションを提案する。
我々は、文字列に音符を割り当てるために、マスク付き言語モデリングパラダイムでエンコーダ・デコーダ変換モデルを訓練する。
このモデルは、まず25K以上のタブチュアのデータセットであるDadaGPで事前トレーニングされ、その後、プロが書き起こしたギター演奏のキュレートセットで微調整される。
論文 参考訳(メタデータ) (2024-08-09T12:25:23Z) - Expressive Acoustic Guitar Sound Synthesis with an Instrument-Specific
Input Representation and Diffusion Outpainting [9.812666469580872]
楽器への入力表現をカスタマイズした音響ギター音響合成モデルを提案する。
本研究では,長期的整合性のある音声を生成する拡散型アウトペイントを用いて提案手法を実装した。
提案モデルはベースラインモデルよりも音質が高く,よりリアルな音色を生成する。
論文 参考訳(メタデータ) (2024-01-24T14:44:01Z) - Modeling Bends in Popular Music Guitar Tablatures [49.64902130083662]
タブラチュア表記はポピュラー音楽で広く使われ、ギター音楽のコンテンツの書き起こしや共有に使われている。
本論文は,音符のピッチを段階的にシフトできる屈曲に着目し,離散的な指板の物理的制限を回避する。
ポピュラー音楽の932個のリードギタータブラのコーパス上で実験を行い、決定木がF1スコア0.71と限られた偽陽性予測量で屈曲の発生をうまく予測することを示す。
論文 参考訳(メタデータ) (2023-08-22T07:50:58Z) - Simple and Controllable Music Generation [94.61958781346176]
MusicGenは単一の言語モデル(LM)であり、圧縮された離散的な音楽表現、すなわちトークンの複数のストリームで動作する。
以前の作業とは異なり、MusicGenはシングルステージのトランスフォーマーLMと効率的なトークンインターリービングパターンで構成されている。
論文 参考訳(メタデータ) (2023-06-08T15:31:05Z) - Exploring the Efficacy of Pre-trained Checkpoints in Text-to-Music
Generation Task [86.72661027591394]
テキスト記述から完全で意味論的に一貫したシンボリック音楽の楽譜を生成する。
テキスト・音楽生成タスクにおける自然言語処理のための公開チェックポイントの有効性について検討する。
実験結果から, BLEUスコアと編集距離の類似性において, 事前学習によるチェックポイントの使用による改善が統計的に有意であることが示唆された。
論文 参考訳(メタデータ) (2022-11-21T07:19:17Z) - Towards Automatic Instrumentation by Learning to Separate Parts in
Symbolic Multitrack Music [33.679951600368405]
演奏中のソロ音楽の音符に楽器を動的に割り当てる自動楽器の実現可能性について検討する。
オンラインでリアルタイムに使用可能なパフォーマンスユースケースの設定に加えて、自動インスツルメンテーションはオフライン環境での補助的な構成ツールのアプリケーションも見つけることができる。
我々は,パート分離の課題を逐次多クラス分類問題として捉え,音符のシーケンスをパートラベルのシーケンスにマッピングするために機械学習を採用する。
論文 参考訳(メタデータ) (2021-07-13T08:34:44Z) - A framework to compare music generative models using automatic
evaluation metrics extended to rhythm [69.2737664640826]
本稿では,前回の研究で提示された,リズムを考慮せず,設計決定を下すための枠組みを取り上げ,単音素音楽作成における2つのrnnメモリセルの性能評価のためにリズムサポートを付加した。
モデルでは,音素変換の処理を考慮し,リズムサポートを付加した幾何学に基づく自動計測値を用いて,生成した楽曲の質を評価する。
論文 参考訳(メタデータ) (2021-01-19T15:04:46Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。