論文の概要: Visual motion analysis of the player's finger
- arxiv url: http://arxiv.org/abs/2303.12697v1
- Date: Fri, 24 Feb 2023 10:14:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:18:53.213263
- Title: Visual motion analysis of the player's finger
- Title(参考訳): 指の視覚的動作解析
- Authors: Marco Costanzo
- Abstract要約: この研究は、ビデオシーケンスからキーボード奏者の3つの調律で指の動きを抽出することに関するものである。
この問題の関連性にはいくつかの側面があり、実際、指の動きの抽出はキーストロークの効率と個々の関節の寄与を計算するために用いられる。
- 参考スコア(独自算出の注目度): 3.299672391663527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work is about the extraction of the motion of fingers, in their three
articulations, of a keyboard player from a video sequence. The relevance of the
problem involves several aspects, in fact, the extraction of the movements of
the fingers may be used to compute the keystroke efficiency and individual
joint contributions, as showed by Werner Goebl and Caroline Palmer in the paper
'Temporal Control and Hand Movement Efficiency in Skilled Music Performance'.
Those measures are directly related to the precision in timing and force
measures. A very good approach to the hand gesture recognition problem has been
presented in the paper ' Real-Time Hand Gesture Recognition Using Finger
Segmentation'. Detecting the keys pressed on a keyboard is a task that can be
complex because of the shadows that can degrade the quality of the result and
possibly cause the detection of not pressed keys. Among the several approaches
that already exist, a great amount of them is based on the subtraction of
frames in order to detect the movements of the keys caused by their pressure.
Detecting the keys that are pressed could be useful to automatically evaluate
the performance of a pianist or to automatically write sheet music of the
melody that is being played.
- Abstract(参考訳): この研究は、ビデオシーケンスからキーボード奏者の3つの調律で指の動きを抽出することに関するものである。
この問題との関連性にはいくつかの側面があり、実際に指の動きの抽出はキーストロークの効率と個々のジョイントコントリビュートを計算するために用いられ、werner goebl と caroline palmer は論文 "temporal control and hand movement efficiency in skilled music performance" で示した。
これらの措置は、タイミングと力の精度に直接関係している。
ハンドジェスチャ認識問題に対する非常に優れたアプローチが「指分割を用いたリアルタイムハンドジェスチャ認識」という論文で紹介されている。
キーボードで押されたキーを検知することは、結果の品質を低下させ、おそらく押されていないキーを検知する可能性があるため、複雑なタスクである。
既に存在するいくつかのアプローチの中で、それらの多くは、その圧力によって引き起こされるキーの動きを検出するために、フレームの減算に基づいている。
押されたキーを検出することは、ピアニストの演奏を自動的に評価したり、演奏中のメロディの楽譜を自動的に書き込むのに役立つ。
関連論文リスト
- PianoMotion10M: Dataset and Benchmark for Hand Motion Generation in Piano Performance [15.21347897534943]
ピアノ演奏のための手の動きと指の動きをガイドするピアノハンド動作生成ベンチマークを構築した。
この目的のために,1000万個の手ポーズを持つ鳥眼ビューから116時間のピアノ演奏ビデオからなる注釈付きデータセットPianoMotion10Mを収集した。
論文 参考訳(メタデータ) (2024-06-13T17:05:23Z) - Video-Mined Task Graphs for Keystep Recognition in Instructional Videos [71.16703750980143]
手続き的活動理解には、より広いタスクの観点から人間の行動を知覚する必要がある。
本稿では,ハウツービデオからタスクグラフを自動的に発見して,人々がキーステップを実行する傾向を確率論的に表現することを提案する。
より信頼性の高いゼロショットキーステップのローカライゼーションとビデオ表現学習の改善。
論文 参考訳(メタデータ) (2023-07-17T18:19:36Z) - At Your Fingertips: Extracting Piano Fingering Instructions from Videos [45.643494669796866]
ビデオから指情報を自動的に抽出するAIタスクについて検討する。
ディープラーニングモジュールの組み合わせを用いて,このタスクを高精度に実行する方法を示す。
結果、90本の動画でシステムを実行し、高品質のピアノ指で150Kの音符を入力します。
論文 参考訳(メタデータ) (2023-03-07T09:09:13Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - End-to-End Learning of Keypoint Representations for Continuous Control
from Images [84.8536730437934]
教師なしの事前学習、デコーダ、追加の損失を必要とせずに、エンドツーエンドで効率的なキーポイント表現を学習できることが示される。
提案アーキテクチャは,ソフトアクター・クリティカルエージェントに直接座標を供給するキーポイント抽出器で構成されている。
論文 参考訳(メタデータ) (2021-06-15T09:17:06Z) - Towards Learning to Play Piano with Dexterous Hands and Touch [79.48656721563795]
そこで我々は,エージェントが機械可読音楽から直接学習して,模擬ピアノで器用な手でピアノを弾く方法を示した。
我々は、タッチ強化された報酬と、新しいタスクのカリキュラムを使用することで、これを実現する。
論文 参考訳(メタデータ) (2021-06-03T17:59:31Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z) - Music Gesture for Visual Sound Separation [121.36275456396075]
ミュージック・ジェスチャ(Music Gesture)は、音楽演奏時の演奏者の身体と指の動きを明示的にモデル化するキーポイントに基づく構造化表現である。
まず、コンテキスト対応グラフネットワークを用いて、視覚的コンテキストと身体力学を統合し、その後、身体の動きと対応する音声信号とを関連付けるために、音声-視覚融合モデルを適用する。
論文 参考訳(メタデータ) (2020-04-20T17:53:46Z) - Machine Learning for a Music Glove Instrument [0.0]
感圧性、フレキシブル、IMUセンサーを備えた音楽グローブ楽器は、電気ピアノで音符シーケンスを学習するために訓練される。
グローブは任意の表面に使われ、手の動きに最も近い音符列を生成する。
論文 参考訳(メタデータ) (2020-01-27T01:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。