論文の概要: Machine Learning for a Music Glove Instrument
- arxiv url: http://arxiv.org/abs/2001.09551v1
- Date: Mon, 27 Jan 2020 01:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 08:34:21.357652
- Title: Machine Learning for a Music Glove Instrument
- Title(参考訳): 音楽グローブ楽器のための機械学習
- Authors: Joseph Bakarji
- Abstract要約: 感圧性、フレキシブル、IMUセンサーを備えた音楽グローブ楽器は、電気ピアノで音符シーケンスを学習するために訓練される。
グローブは任意の表面に使われ、手の動きに最も近い音符列を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A music glove instrument equipped with force sensitive, flex and IMU sensors
is trained on an electric piano to learn note sequences based on a time series
of sensor inputs. Once trained, the glove is used on any surface to generate
the sequence of notes most closely related to the hand motion. The data is
collected manually by a performer wearing the glove and playing on an electric
keyboard. The feature space is designed to account for the key hand motion,
such as the thumb-under movement. Logistic regression along with bayesian
belief networks are used learn the transition probabilities from one note to
another. This work demonstrates a data-driven approach for digital musical
instruments in general.
- Abstract(参考訳): 感圧、フレキシブル、IMUセンサーを備えた音楽グローブ装置を電気ピアノで訓練し、一連のセンサ入力に基づいて音符シーケンスを学習する。
トレーニングが完了すると、手袋はどんな表面にも使われ、手の動きと最も密接に関連した音符列を生成する。
データは、グローブを着用して電気キーボードで演奏するパフォーマーによって手動で収集される。
特徴空間は、サムアンダー運動のようなキーハンドの動きを説明するように設計されている。
ベイズ的信念ネットワークと共にロジスティック回帰は、あるノートから別のノートへの遷移確率を学ぶために用いられる。
本研究は,デジタル楽器全般に対するデータ駆動アプローチを実証する。
関連論文リスト
- FürElise: Capturing and Physically Synthesizing Hand Motions of Piano Performance [15.909113091360206]
ピアノ演奏を正確に再現する洗練された手の動きモデルは、キャラクターアニメーション、エンボディAI、バイオメカニクス、VR/ARに幅広い応用がある。
本稿では,153曲のクラシック音楽を演奏する15人のエリートレベルのピアニストによる,約10時間の3D手の動きとオーディオを含む,第1世代の大規模データセットを構築する。
論文 参考訳(メタデータ) (2024-10-08T08:21:05Z) - PianoMotion10M: Dataset and Benchmark for Hand Motion Generation in Piano Performance [15.21347897534943]
ピアノ演奏のための手の動きと指の動きをガイドするピアノハンド動作生成ベンチマークを構築した。
この目的のために,1000万個の手ポーズを持つ鳥眼ビューから116時間のピアノ演奏ビデオからなる注釈付きデータセットPianoMotion10Mを収集した。
論文 参考訳(メタデータ) (2024-06-13T17:05:23Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Modeling Bends in Popular Music Guitar Tablatures [49.64902130083662]
タブラチュア表記はポピュラー音楽で広く使われ、ギター音楽のコンテンツの書き起こしや共有に使われている。
本論文は,音符のピッチを段階的にシフトできる屈曲に着目し,離散的な指板の物理的制限を回避する。
ポピュラー音楽の932個のリードギタータブラのコーパス上で実験を行い、決定木がF1スコア0.71と限られた偽陽性予測量で屈曲の発生をうまく予測することを示す。
論文 参考訳(メタデータ) (2023-08-22T07:50:58Z) - At Your Fingertips: Extracting Piano Fingering Instructions from Videos [45.643494669796866]
ビデオから指情報を自動的に抽出するAIタスクについて検討する。
ディープラーニングモジュールの組み合わせを用いて,このタスクを高精度に実行する方法を示す。
結果、90本の動画でシステムを実行し、高品質のピアノ指で150Kの音符を入力します。
論文 参考訳(メタデータ) (2023-03-07T09:09:13Z) - Visual motion analysis of the player's finger [3.299672391663527]
この研究は、ビデオシーケンスからキーボード奏者の3つの調律で指の動きを抽出することに関するものである。
この問題の関連性にはいくつかの側面があり、実際、指の動きの抽出はキーストロークの効率と個々の関節の寄与を計算するために用いられる。
論文 参考訳(メタデータ) (2023-02-24T10:14:13Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Towards Automatic Instrumentation by Learning to Separate Parts in
Symbolic Multitrack Music [33.679951600368405]
演奏中のソロ音楽の音符に楽器を動的に割り当てる自動楽器の実現可能性について検討する。
オンラインでリアルタイムに使用可能なパフォーマンスユースケースの設定に加えて、自動インスツルメンテーションはオフライン環境での補助的な構成ツールのアプリケーションも見つけることができる。
我々は,パート分離の課題を逐次多クラス分類問題として捉え,音符のシーケンスをパートラベルのシーケンスにマッピングするために機械学習を採用する。
論文 参考訳(メタデータ) (2021-07-13T08:34:44Z) - Towards Learning to Play Piano with Dexterous Hands and Touch [79.48656721563795]
そこで我々は,エージェントが機械可読音楽から直接学習して,模擬ピアノで器用な手でピアノを弾く方法を示した。
我々は、タッチ強化された報酬と、新しいタスクのカリキュラムを使用することで、これを実現する。
論文 参考訳(メタデータ) (2021-06-03T17:59:31Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。