論文の概要: Real-time Pose Estimation from Images for Multiple Humanoid Robots
- arxiv url: http://arxiv.org/abs/2107.02675v1
- Date: Tue, 6 Jul 2021 15:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:37:49.532754
- Title: Real-time Pose Estimation from Images for Multiple Humanoid Robots
- Title(参考訳): 複数のヒューマノイドロボットの画像からのリアルタイム姿勢推定
- Authors: Arash Amini, Hafez Farazi, Sven Behnke
- Abstract要約: 本稿では,ロボカップヒューマノイドリーグ環境におけるヒューマノイドロボットの動作をリアルタイムに行う軽量ポーズ推定モデルを提案する。
この研究の結果は、サッカーをするロボットに多くの高度な行動を可能にする可能性がある。
- 参考スコア(独自算出の注目度): 45.182157261640675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose estimation commonly refers to computer vision methods that recognize
people's body postures in images or videos. With recent advancements in deep
learning, we now have compelling models to tackle the problem in real-time.
Since these models are usually designed for human images, one needs to adapt
existing models to work on other creatures, including robots. This paper
examines different state-of-the-art pose estimation models and proposes a
lightweight model that can work in real-time on humanoid robots in the RoboCup
Humanoid League environment. Additionally, we present a novel dataset called
the HumanoidRobotPose dataset. The results of this work have the potential to
enable many advanced behaviors for soccer-playing robots.
- Abstract(参考訳): ポーズ推定は、画像やビデオで人の身体の姿勢を認識するコンピュータビジョンの手法を指すことが多い。
ディープラーニングの最近の進歩により、リアルタイムに問題に取り組むための説得力のあるモデルができました。
これらのモデルは通常人間のイメージ用に設計されているため、既存のモデルをロボットを含む他の生物に適応させる必要がある。
本稿では,ロボカップヒューマノイドリーグ環境におけるヒューマノイドロボットの動作をリアルタイムに行う軽量モデルを提案する。
さらに,HumanoidRobotPoseデータセットという新しいデータセットを提案する。
この研究の成果は、サッカーをするロボットの高度な行動を可能にする可能性を秘めている。
関連論文リスト
- Robot at the Mirror: Learning to Imitate via Associating Self-supervised
Models [0.0]
我々は、トレーニングや微調整の代わりにアソシエイトを通じて、準備済みの自己教師付きモデルからカスタムモデルを構築するアプローチを導入する。
そこで本研究では,鏡を映し出したヒューマノイドロボットが,知覚した画像から身体の3Dポーズを検出することを実演する。
論文 参考訳(メタデータ) (2023-11-22T08:30:20Z) - High-Degrees-of-Freedom Dynamic Neural Fields for Robot Self-Modeling
and Motion Planning [7.358994636133107]
ロボットの自己モデル(英: Robot self-model)は、ロボットの運動計画タスクに使用できる身体形態の表現である。
我々は、ニューラルネットワークを利用して、ロボットがキネマティクスをニューラルネットワーククエリモデルとして自己モデル化できるようにする。
7-DOFロボットテストでは、学習した自己モデルは、ロボットの寸法の2%のChamfer-L2距離を達成する。
論文 参考訳(メタデータ) (2023-10-05T16:01:29Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。