論文の概要: From Score to Sound: An End-to-End MIDI-to-Motion Pipeline for Robotic Cello Performance
- arxiv url: http://arxiv.org/abs/2601.03562v1
- Date: Wed, 07 Jan 2026 04:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.677563
- Title: From Score to Sound: An End-to-End MIDI-to-Motion Pipeline for Robotic Cello Performance
- Title(参考訳): 音から音へ:ロボットチェロ演奏のためのMIDI-to-Motionパイプライン
- Authors: Samantha Sudhoff, Pranesh Velmurugan, Jiashu Liu, Vincent Zhao, Yung-Hsiang Lu, Kristen Yeon-Ji Yun,
- Abstract要約: ロボット・モーション・パイプラインに新たなエンドツーエンドMIDIスコアを提案する。
このパイプラインは、音楽入力を直接、UR5eロボットチェリストの衝突認識バウイング動作に変換する。
人間の演奏者と比較して,本手法の有効性を示すため,音楽チューリングテストを導入する。
- 参考スコア(独自算出の注目度): 1.6971047370270889
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot musicians require precise control to obtain proper note accuracy, sound quality, and musical expression. Performance of string instruments, such as violin and cello, presents a significant challenge due to the precise control required over bow angle and pressure to produce the desired sound. While prior robotic cellists focus on accurate bowing trajectories, these works often rely on expensive motion capture techniques, and fail to sightread music in a human-like way. We propose a novel end-to-end MIDI score to robotic motion pipeline which converts musical input directly into collision-aware bowing motions for a UR5e robot cellist. Through use of Universal Robot Freedrive feature, our robotic musician can achieve human-like sound without the need for motion capture. Additionally, this work records live joint data via Real-Time Data Exchange (RTDE) as the robot plays, providing labeled robotic playing data from a collection of five standard pieces to the research community. To demonstrate the effectiveness of our method in comparison to human performers, we introduce the Musical Turing Test, in which a collection of 132 human participants evaluate our robot's performance against a human baseline. Human reference recordings are also released, enabling direct comparison for future studies. This evaluation technique establishes the first benchmark for robotic cello performance. Finally, we outline a residual reinforcement learning methodology to improve upon baseline robotic controls, highlighting future opportunities for improved string-crossing efficiency and sound quality.
- Abstract(参考訳): ロボットミュージシャンは適切な音の精度、音質、音楽表現を得るために正確な制御を必要とする。
ヴァイオリンやチェロなどの弦楽器の性能は、弓の角度や圧力を正確に制御して所望の音を出すため、大きな課題となる。
従来のロボットチェリストは正確な弓の軌道に重点を置いていたが、これらの作品は高価なモーションキャプチャー技術に依存しており、人間のように音楽を見ることができないことが多い。
UR5eロボットチェリストに対して,音楽入力を直接衝突認識型ボウイング動作に変換するロボットモーションパイプラインに,新たなエンドツーエンドMIDIスコアを提案する。
Universal Robot Freedrive機能を利用することで、ロボットミュージシャンはモーションキャプチャを必要とせずに人間のような音を出せるようになります。
さらに、この研究は、リアルタイムデータ交換(RTDE)を介して、ロボットが演奏するライブジョイントデータを記録し、研究コミュニティに5つの標準部品のコレクションからラベル付きロボットプレイデータを提供する。
人間の演奏者と比較して,本手法の有効性を実証するために,132人の被験者による音楽チューリングテストを導入する。
人間の参照記録もリリースされ、将来の研究を直接比較することができる。
この評価手法は,ロボットチェロ性能の最初のベンチマークとなる。
最後に,基本となるロボット制御を改善するための強化学習手法について概説し,弦クロス効率と音質の向上に向けた今後の可能性を明らかにする。
関連論文リスト
- H2R-Grounder: A Paired-Data-Free Paradigm for Translating Human Interaction Videos into Physically Grounded Robot Videos [58.006918399913665]
本稿では,通常の人間と物体のインタラクションビデオからモーション一貫性のあるロボット操作ビデオに変換するビデオ間翻訳フレームワークを提案する。
私たちのアプローチでは、ロボットビデオのセットのみをトレーニングするために、ペアの人間ロボットビデオは必要とせず、システムを拡張しやすくしています。
テスト時にも同じプロセスを人間のビデオに適用し、人間の行動を模倣する高品質なロボットビデオを生成する。
論文 参考訳(メタデータ) (2025-12-10T07:59:45Z) - Design and Control of a Bipedal Robotic Character [3.650193138379926]
この研究は、足のついたロボットのための表現力のあるアーティスト指向のモーションとロバストなダイナミックモビリティを統一することを目的としている。
キャラクタ駆動型機械的特徴に着目した新しい二足歩行ロボットを提案する。
命令信号に条件付けられた芸術的動作を頑健に行うための強化学習に基づく制御アーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-01-09T12:55:21Z) - Breathless: An 8-hour Performance Contrasting Human and Robot Expressiveness [16.69221972067975]
本稿では,人間のダンサーと産業用ロボットアームを組み合わせたオリジナルパフォーマンスを支えるロボット技術について述べる。
ロボットアームを制御するために, 各種の正弦波運動と各関節の振幅, 周波数, オフセットを組み合わせ, 身体労働に共通する人間の動作を誘発する。
ビデオに基づく人的対象追跡と抽出のための深層学習技術を用いて、さらなる動きが開発された。
論文 参考訳(メタデータ) (2024-11-19T09:20:51Z) - RP1M: A Large-Scale Motion Dataset for Piano Playing with Bi-Manual Dexterous Robot Hands [57.64308229980045]
ロボットピアノ100万のデータセットには,100万回以上の軌跡の動作データをバイマニュアルで演奏するロボットピアノが組み込まれている。
指の配置を最適な移動問題として定式化し、大量の未収録曲の自動アノテーションを可能にする。
既存の模倣学習手法のベンチマークでは、RP1Mを活用することにより、最先端のロボットピアノ演奏性能に達することが示されている。
論文 参考訳(メタデータ) (2024-08-20T17:56:52Z) - Improving Drumming Robot Via Attention Transformer Network [2.5064819128982556]
本稿では,注目機構に基づいて,一般的な視覚変換器ネットワークに基づいて自動的に音楽の書き起こしを完了できる改良型ドラムロボットを提案する。
この改良アルゴリズムは,ドラム分類性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-04T03:55:43Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - RoboPianist: Dexterous Piano Playing with Deep Reinforcement Learning [61.10744686260994]
本稿では,150曲のピアノ作品の大規模なレパートリーをシミュレートして学習するシステムであるRoboPianistを紹介する。
また,オープンソース環境,タスクのベンチマーク,解釈可能な評価指標,今後の研究課題についても紹介する。
論文 参考訳(メタデータ) (2023-04-09T03:53:05Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。