論文の概要: Machine Learning for a Music Glove Instrument
- arxiv url: http://arxiv.org/abs/2001.09551v1
- Date: Mon, 27 Jan 2020 01:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 08:34:21.357652
- Title: Machine Learning for a Music Glove Instrument
- Title(参考訳): 音楽グローブ楽器のための機械学習
- Authors: Joseph Bakarji
- Abstract要約: 感圧性、フレキシブル、IMUセンサーを備えた音楽グローブ楽器は、電気ピアノで音符シーケンスを学習するために訓練される。
グローブは任意の表面に使われ、手の動きに最も近い音符列を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A music glove instrument equipped with force sensitive, flex and IMU sensors
is trained on an electric piano to learn note sequences based on a time series
of sensor inputs. Once trained, the glove is used on any surface to generate
the sequence of notes most closely related to the hand motion. The data is
collected manually by a performer wearing the glove and playing on an electric
keyboard. The feature space is designed to account for the key hand motion,
such as the thumb-under movement. Logistic regression along with bayesian
belief networks are used learn the transition probabilities from one note to
another. This work demonstrates a data-driven approach for digital musical
instruments in general.
- Abstract(参考訳): 感圧、フレキシブル、IMUセンサーを備えた音楽グローブ装置を電気ピアノで訓練し、一連のセンサ入力に基づいて音符シーケンスを学習する。
トレーニングが完了すると、手袋はどんな表面にも使われ、手の動きと最も密接に関連した音符列を生成する。
データは、グローブを着用して電気キーボードで演奏するパフォーマーによって手動で収集される。
特徴空間は、サムアンダー運動のようなキーハンドの動きを説明するように設計されている。
ベイズ的信念ネットワークと共にロジスティック回帰は、あるノートから別のノートへの遷移確率を学ぶために用いられる。
本研究は,デジタル楽器全般に対するデータ駆動アプローチを実証する。
関連論文リスト
- Modeling Bends in Popular Music Guitar Tablatures [49.64902130083662]
タブラチュア表記はポピュラー音楽で広く使われ、ギター音楽のコンテンツの書き起こしや共有に使われている。
本論文は,音符のピッチを段階的にシフトできる屈曲に着目し,離散的な指板の物理的制限を回避する。
ポピュラー音楽の932個のリードギタータブラのコーパス上で実験を行い、決定木がF1スコア0.71と限られた偽陽性予測量で屈曲の発生をうまく予測することを示す。
論文 参考訳(メタデータ) (2023-08-22T07:50:58Z) - At Your Fingertips: Extracting Piano Fingering Instructions from Videos [45.643494669796866]
ビデオから指情報を自動的に抽出するAIタスクについて検討する。
ディープラーニングモジュールの組み合わせを用いて,このタスクを高精度に実行する方法を示す。
結果、90本の動画でシステムを実行し、高品質のピアノ指で150Kの音符を入力します。
論文 参考訳(メタデータ) (2023-03-07T09:09:13Z) - Visual motion analysis of the player's finger [3.299672391663527]
この研究は、ビデオシーケンスからキーボード奏者の3つの調律で指の動きを抽出することに関するものである。
この問題の関連性にはいくつかの側面があり、実際、指の動きの抽出はキーストロークの効率と個々の関節の寄与を計算するために用いられる。
論文 参考訳(メタデータ) (2023-02-24T10:14:13Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Melody transcription via generative pre-training [86.08508957229348]
メロディの書き起こしの鍵となる課題は、様々な楽器のアンサンブルや音楽スタイルを含む幅広いオーディオを処理できる方法を構築することである。
この課題に対処するために、広帯域オーディオの生成モデルであるJukebox(Dhariwal et al. 2020)の表現を活用する。
広義音楽のクラウドソースアノテーションから50ドル(約5,400円)のメロディ書き起こしを含む新しいデータセットを導出する。
論文 参考訳(メタデータ) (2022-12-04T18:09:23Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - Towards Automatic Instrumentation by Learning to Separate Parts in
Symbolic Multitrack Music [33.679951600368405]
演奏中のソロ音楽の音符に楽器を動的に割り当てる自動楽器の実現可能性について検討する。
オンラインでリアルタイムに使用可能なパフォーマンスユースケースの設定に加えて、自動インスツルメンテーションはオフライン環境での補助的な構成ツールのアプリケーションも見つけることができる。
我々は,パート分離の課題を逐次多クラス分類問題として捉え,音符のシーケンスをパートラベルのシーケンスにマッピングするために機械学習を採用する。
論文 参考訳(メタデータ) (2021-07-13T08:34:44Z) - Towards Learning to Play Piano with Dexterous Hands and Touch [79.48656721563795]
そこで我々は,エージェントが機械可読音楽から直接学習して,模擬ピアノで器用な手でピアノを弾く方法を示した。
我々は、タッチ強化された報酬と、新しいタスクのカリキュラムを使用することで、これを実現する。
論文 参考訳(メタデータ) (2021-06-03T17:59:31Z) - Multi-Instrumentalist Net: Unsupervised Generation of Music from Body
Movements [20.627164135805852]
本研究では、楽器を演奏するミュージシャンの入力体の動きを取り入れ、教師なしの環境で音楽を生成する新しいシステムを提案する。
ログ・スペクトログラムから様々な楽器音楽の離散的な潜在表現を学習するパイプライン「Multi-instrumentalistNet」を構築した。
Midiは、パイプラインがビデオ内の楽器によって演奏される音楽の正確なコンテンツを生成するように、潜在空間をさらに調整できることを示しています。
論文 参考訳(メタデータ) (2020-12-07T06:54:10Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。