論文の概要: RoboCup@Home Education 2020 Best Performance: RoboBreizh, a modular
approach
- arxiv url: http://arxiv.org/abs/2107.02978v1
- Date: Wed, 7 Jul 2021 02:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 01:19:06.318462
- Title: RoboCup@Home Education 2020 Best Performance: RoboBreizh, a modular
approach
- Title(参考訳): robocup@home education 2020 best performance: robobreizh, a modular approach
- Authors: Antoine Dizet and C\'edric Le Bono and Am\'elie Legeleux and Ma\"elic
neau and C\'edric Buche
- Abstract要約: 2020年、RoboCup@Home Educationの課題がオンライン化され、通常の競争ルールが変更された。
本稿では,RoboBreizhチームが優勝した最新の成果を紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Every year, the Robocup@Home competition challenges teams and robots'
abilities. In 2020, the RoboCup@Home Education challenge was organized online,
altering the usual competition rules. In this paper, we present the latest
developments that lead the RoboBreizh team to win the contest. These
developments include several modules linked to each other allowing the Pepper
robot to understand, act and adapt itself to a local environment. Up-to-date
available technologies have been used for navigation and dialogue. First
contribution includes combining object detection and pose estimation techniques
to detect user's intention. Second contribution involves using Learning by
Demonstrations to easily learn new movements that improve the Pepper robot's
skills. This proposal won the best performance award of the 2020 RoboCup@Home
Education challenge.
- Abstract(参考訳): 毎年、robocup@homeコンペティションはチームとロボットの能力に挑戦している。
2020年、RoboCup@Home Educationの課題がオンライン化され、通常の競争ルールが変更された。
本稿では,RoboBreizhチームが優勝した最新の成果を紹介する。
これらの開発には、pepperロボットがローカル環境を理解し、行動し、適応できるようにする複数のモジュールがリンクされている。
最新の技術はナビゲーションや対話に使われている。
第一の貢献は、ユーザの意図を検出するために、オブジェクト検出とポーズ推定技術を組み合わせることである。
第2の貢献は,ペッパーロボットのスキルを向上させる新たな動きを簡単に学ぶためのデモンストレーションによる学習だ。
この提案は、2020年のrobocup@home education challengeのベストパフォーマンス賞を受賞した。
関連論文リスト
- WIP: Development of a Student-Centered Personalized Learning Framework
to Advance Undergraduate Robotics Education [3.4359491310368786]
大学レベルでのロボティクスの研究は、幅広い関心、経験、目的を表している。
本稿では,ロボット工学の学生にパーソナライズされた学習環境を提供する学習システムの開発について述べる。
論文 参考訳(メタデータ) (2023-09-10T20:00:25Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - ClipBot: an educational, physically impaired robot that learns to walk
via genetic algorithm optimization [0.0]
ClipBotは低コストで自作のロボットで、骨格は2枚の紙クリップでできている。
Arduinoナノコントローラは、紙のクリップを動かす2つのサーボモーターを作動させる。
高校生はロボットの動きを最適化する遺伝的アルゴリズムの実装を依頼された。
論文 参考訳(メタデータ) (2022-10-26T13:31:43Z) - Hierarchical Reinforcement Learning for Precise Soccer Shooting Skills
using a Quadrupedal Robot [76.04391023228081]
本研究では,四足歩行ロボットが実世界において,強化学習を用いて精度の高い射撃技術を実現できるという課題に対処する。
本研究では, 深層強化学習を活用して頑健な動作制御政策を訓練する階層的枠組みを提案する。
提案するフレームワークをA1四足歩行ロボットに展開し、実世界のランダムなターゲットに向けて正確にボールを発射できるようにする。
論文 参考訳(メタデータ) (2022-08-01T22:34:51Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - NeBula: Quest for Robotic Autonomy in Challenging Environments; TEAM
CoSTAR at the DARPA Subterranean Challenge [105.27989489105865]
本稿では,TEAM CoSTARが開発したアルゴリズム,ハードウェア,ソフトウェアアーキテクチャについて述べる。
NeBula (Networked Belief-Aware Perceptual Autonomy) と呼ばれる当社の自律的ソリューションを紹介します。
論文 参考訳(メタデータ) (2021-03-21T19:42:26Z) - High Acceleration Reinforcement Learning for Real-World Juggling with
Binary Rewards [35.55280687116388]
学習システムは,ロボットを傷つけることなく,現実世界でジャグリングすることを学ぶことができることを示す。
本システムは,56分間の経験から,高速なバレットWAMマニピュレータで2つのボールをジャグリングすることを可能にした。
最終方針は、最大33分間、または約4500回のキャッチを連続的にジャグリングする。
論文 参考訳(メタデータ) (2020-10-26T11:13:47Z) - Learning Locomotion Skills in Evolvable Robots [10.167123492952694]
本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
論文 参考訳(メタデータ) (2020-10-19T14:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。