論文の概要: Cloud-Based Hierarchical Imitation Learning for Scalable Transfer of
Construction Skills from Human Workers to Assisting Robots
- arxiv url: http://arxiv.org/abs/2309.11619v1
- Date: Wed, 20 Sep 2023 20:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 17:55:10.933166
- Title: Cloud-Based Hierarchical Imitation Learning for Scalable Transfer of
Construction Skills from Human Workers to Assisting Robots
- Title(参考訳): クラウドに基づく階層型模倣学習による作業者から支援ロボットへの建設スキルのスケーラブル移行
- Authors: Hongrui Yu, Vineet R. Kamat, Carol C. Menassa
- Abstract要約: 本稿では,没入型クラウドロボティクスによる仮想実演フレームワークを提案する。
デモプロセスをデジタル化し、重い建設物の反復的な物理的操作を不要にする。
この枠組みは、人間の訓練を受けたロボットに建設作業の物理的歪みを委譲することにより、多様な身体能力を持つ労働者の参加を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assigning repetitive and physically-demanding construction tasks to robots
can alleviate human workers's exposure to occupational injuries. Transferring
necessary dexterous and adaptive artisanal construction craft skills from
workers to robots is crucial for the successful delegation of construction
tasks and achieving high-quality robot-constructed work. Predefined motion
planning scripts tend to generate rigid and collision-prone robotic behaviors
in unstructured construction site environments. In contrast, Imitation Learning
(IL) offers a more robust and flexible skill transfer scheme. However, the
majority of IL algorithms rely on human workers to repeatedly demonstrate task
performance at full scale, which can be counterproductive and infeasible in the
case of construction work. To address this concern, this paper proposes an
immersive, cloud robotics-based virtual demonstration framework that serves two
primary purposes. First, it digitalizes the demonstration process, eliminating
the need for repetitive physical manipulation of heavy construction objects.
Second, it employs a federated collection of reusable demonstrations that are
transferable for similar tasks in the future and can thus reduce the
requirement for repetitive illustration of tasks by human agents. Additionally,
to enhance the trustworthiness, explainability, and ethical soundness of the
robot training, this framework utilizes a Hierarchical Imitation Learning (HIL)
model to decompose human manipulation skills into sequential and reactive
sub-skills. These two layers of skills are represented by deep generative
models, enabling adaptive control of robot actions. By delegating the physical
strains of construction work to human-trained robots, this framework promotes
the inclusion of workers with diverse physical capabilities and educational
backgrounds within the construction industry.
- Abstract(参考訳): 反復的および物理的に要求される建設作業をロボットに割り当てることで、人間の作業員の職業的負傷への曝露を軽減できる。
建設作業の委任と高品質なロボット構築作業を実現するためには,作業者からロボットへ必要な巧妙で適応的な工芸技能を移譲することが不可欠である。
事前定義された運動計画スクリプトは、非構造的な建設現場環境において、剛体で衝突を起こしやすいロボットの挙動を生成する傾向がある。
対照的に、模倣学習(il)はより堅牢で柔軟なスキル転送スキームを提供する。
しかし、ILアルゴリズムの大多数は、建設作業において非生産的で不可能なタスク性能をフルスケールで繰り返し示すために、ヒューマンワーカーに依存している。
そこで本稿では,2つの目的を果たす没入型クラウドロボティクスベースの仮想デモンストレーションフレームワークを提案する。
まず、デモプロセスをデジタル化し、重い建設オブジェクトの反復的な物理的操作を不要にする。
第2に、将来同様のタスクで転送可能な再利用可能なデモのフェデレーションコレクションを使用することで、ヒューマンエージェントによるタスクの反復的なイラストレーションの必要性を低減することができる。
さらに、ロボット訓練の信頼性、説明性、倫理的健全性を高めるために、階層的模倣学習(hil)モデルを用いて、人間の操作スキルを逐次かつリアクティブなサブスキルに分解する。
これら2つのスキル層は、ロボットアクションの適応制御を可能にする深層生成モデルによって表現される。
建設作業の物理的歪みを人体訓練ロボットに委譲することにより、建設産業における多様な身体能力と教育的背景を持つ労働者の参加を促進する。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Grounding Language Models in Autonomous Loco-manipulation Tasks [3.8363685417355557]
異なるシナリオにおけるタスクに基づいて行動を学び、選択し、計画する新しいフレームワークを提案する。
我々は,大規模言語モデル(LLM)の計画と推論機能を活用し,階層的なタスクグラフを構築する。
CENTAUROロボットを用いたシミュレーションおよび実世界の実験により、言語モデルに基づくプランナーが、新しいロコ操作タスクに効率的に適応できることが示されている。
論文 参考訳(メタデータ) (2024-09-02T15:27:48Z) - Towards Human-Centered Construction Robotics: A Reinforcement Learning-Driven Companion Robot for Contextually Assisting Carpentry Workers [11.843554918145983]
本稿では,既存の作業における作業者の支援を目的とした「作業支援ローバー」による人間中心型アプローチを提案する。
我々は,ロボットシステムを大工のフォームワークに導入するための詳細な研究を行い,移動性,安全性,快適な作業ロボットのコラボレーションを重視したプロトタイプを紹介した。
論文 参考訳(メタデータ) (2024-03-27T23:55:02Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - RoboCat: A Self-Improving Generalist Agent for Robotic Manipulation [33.10577695383743]
ロボット操作のためのマルチタスク汎用エージェントRoboCatを提案する。
このデータは、シミュレートされた本物のロボットアームから、さまざまな観察とアクションのセットでモーターコントロールスキルの大規模なレパートリーにまたがる。
RoboCatでは、ゼロショットだけでなく、100-1000例のみを用いて適応することで、新しいタスクやロボットに一般化する能力を実証する。
論文 参考訳(メタデータ) (2023-06-20T17:35:20Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Co-Evolution of Multi-Robot Controllers and Task Cues for Off-World Open
Pit Mining [0.6091702876917281]
本稿では,マルチロボット掘削とサイト準備のシナリオにおいて,スケーラブルなコントローラを開発するための新しい手法を提案する。
コントローラは空白のスレートから始まり、人間による操作スクリプトや、掘削機の運動学や力学の詳細なモデリングを必要としない。
本稿では,テンプレートとタスクキューを用いてグループパフォーマンスをさらに向上し,アンタゴニティを最小化する方法について検討する。
論文 参考訳(メタデータ) (2020-09-19T03:13:28Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。