論文の概要: Breathless: An 8-hour Performance Contrasting Human and Robot Expressiveness
- arxiv url: http://arxiv.org/abs/2411.12361v1
- Date: Tue, 19 Nov 2024 09:20:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:35:55.637442
- Title: Breathless: An 8-hour Performance Contrasting Human and Robot Expressiveness
- Title(参考訳): Breathless:人間とロボットの表現性を8時間で比較するパフォーマンス
- Authors: Catie Cuan, Tianshuang Qiu, Shreya Ganti, Ken Goldberg,
- Abstract要約: 本稿では,人間のダンサーと産業用ロボットアームを組み合わせたオリジナルパフォーマンスを支えるロボット技術について述べる。
ロボットアームを制御するために, 各種の正弦波運動と各関節の振幅, 周波数, オフセットを組み合わせ, 身体労働に共通する人間の動作を誘発する。
ビデオに基づく人的対象追跡と抽出のための深層学習技術を用いて、さらなる動きが開発された。
- 参考スコア(独自算出の注目度): 16.69221972067975
- License:
- Abstract: This paper describes the robot technology behind an original performance that pairs a human dancer (Cuan) with an industrial robot arm for an eight-hour dance that unfolds over the timespan of an American workday. To control the robot arm, we combine a range of sinusoidal motions with varying amplitude, frequency and offset at each joint to evoke human motions common in physical labor such as stirring, digging, and stacking. More motions were developed using deep learning techniques for video-based human-pose tracking and extraction. We combine these pre-recorded motions with improvised robot motions created live by putting the robot into teach-mode and triggering force sensing from the robot joints onstage. All motions are combined with commercial and original music using a custom suite of python software with AppleScript, Keynote, and Zoom to facilitate on-stage communication with the dancer. The resulting performance contrasts the expressivity of the human body with the precision of robot machinery. Video, code and data are available on the project website: https://sites.google.com/playing.studio/breathless
- Abstract(参考訳): 本稿では,人間のダンサー(クアン)と産業用ロボットアームをペアにして,アメリカンワークデイのタイムパンに展開する8時間のダンスを行う,オリジナルパフォーマンスの背後にあるロボット技術について述べる。
ロボットアームを制御するために, 各種の正弦波運動と各関節の振幅, 周波数, オフセットを組み合わせ, 揺動, 掘削, 積み重ねなどの身体的作業に共通する人間の動作を誘発する。
ビデオに基づく人的対象追跡と抽出のための深層学習技術を用いて、さらなる動きが開発された。
事前に録音された動きと即興のロボットの動きを組み合わさって、ロボットを指導モードにし、ステージ上のロボット関節からの力覚をトリガーする。
すべてのモーションは、AppleScript、Keynote、Zoomとカスタムのpythonソフトウェアを使用して、商業的およびオリジナル音楽と組み合わせて、ダンサーとのステージ上でのコミュニケーションを容易にする。
結果として得られる性能は、人体の表現力とロボット機械の精度とを対比する。
ビデオ、コード、データはプロジェクトのWebサイト(https://sites.google.com/playing.studio/breathless)で入手できる。
関連論文リスト
- Uniform vs. Lognormal Kinematics in Robots: Perceptual Preferences for Robotic Movements [2.9907287985468924]
共同作業ロボットやコボットは、共通の作業環境で人間と対話する。
本論文は,人間がロボットの移動を好むか,ロボットの動作を好むかを分析することを目的とする。
論文 参考訳(メタデータ) (2024-05-29T13:36:47Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Learning Human-to-Humanoid Real-Time Whole-Body Teleoperation [34.65637397405485]
本稿では,Human to Humanoid(H2O)について紹介する。H2Oは,RGBカメラのみを搭載したヒューマノイドロボットのリアルタイム遠隔操作を実現するフレームワークである。
我々は、これらの洗練された動きを用いてシミュレーションで頑健なリアルタイムヒューマノイド運動模倣機を訓練し、実ヒューマノイドロボットにゼロショットで転送する。
私たちの知る限りでは、学習に基づくリアルタイムな人型ロボット遠隔操作を実現する最初のデモとなる。
論文 参考訳(メタデータ) (2024-03-07T12:10:41Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Zero-Shot Robot Manipulation from Passive Human Videos [59.193076151832145]
我々は,人間の映像からエージェント非依存の行動表現を抽出するフレームワークを開発した。
我々の枠組みは、人間の手の動きを予測することに基づいている。
トレーニングされたモデルゼロショットを物理ロボット操作タスクにデプロイする。
論文 参考訳(メタデータ) (2023-02-03T21:39:52Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。