論文の概要: Real-time Pose Estimation from Images for Multiple Humanoid Robots
- arxiv url: http://arxiv.org/abs/2107.02675v1
- Date: Tue, 6 Jul 2021 15:33:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-07 13:37:49.532754
- Title: Real-time Pose Estimation from Images for Multiple Humanoid Robots
- Title(参考訳): 複数のヒューマノイドロボットの画像からのリアルタイム姿勢推定
- Authors: Arash Amini, Hafez Farazi, Sven Behnke
- Abstract要約: 本稿では,ロボカップヒューマノイドリーグ環境におけるヒューマノイドロボットの動作をリアルタイムに行う軽量ポーズ推定モデルを提案する。
この研究の結果は、サッカーをするロボットに多くの高度な行動を可能にする可能性がある。
- 参考スコア(独自算出の注目度): 45.182157261640675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose estimation commonly refers to computer vision methods that recognize
people's body postures in images or videos. With recent advancements in deep
learning, we now have compelling models to tackle the problem in real-time.
Since these models are usually designed for human images, one needs to adapt
existing models to work on other creatures, including robots. This paper
examines different state-of-the-art pose estimation models and proposes a
lightweight model that can work in real-time on humanoid robots in the RoboCup
Humanoid League environment. Additionally, we present a novel dataset called
the HumanoidRobotPose dataset. The results of this work have the potential to
enable many advanced behaviors for soccer-playing robots.
- Abstract(参考訳): ポーズ推定は、画像やビデオで人の身体の姿勢を認識するコンピュータビジョンの手法を指すことが多い。
ディープラーニングの最近の進歩により、リアルタイムに問題に取り組むための説得力のあるモデルができました。
これらのモデルは通常人間のイメージ用に設計されているため、既存のモデルをロボットを含む他の生物に適応させる必要がある。
本稿では,ロボカップヒューマノイドリーグ環境におけるヒューマノイドロボットの動作をリアルタイムに行う軽量モデルを提案する。
さらに,HumanoidRobotPoseデータセットという新しいデータセットを提案する。
この研究の成果は、サッカーをするロボットの高度な行動を可能にする可能性を秘めている。
関連論文リスト
- Differentiable Robot Rendering [45.23538293501457]
本稿では,ロボット本体の視覚的外観を,その制御パラメータに対して直接微分可能とするロボットレンダリングについて紹介する。
画像からロボットのポーズを復元したり、視覚言語モデルを用いてロボットを制御するなど、その能力と用途を実演する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Robot at the Mirror: Learning to Imitate via Associating Self-supervised
Models [0.0]
我々は、トレーニングや微調整の代わりにアソシエイトを通じて、準備済みの自己教師付きモデルからカスタムモデルを構築するアプローチを導入する。
そこで本研究では,鏡を映し出したヒューマノイドロボットが,知覚した画像から身体の3Dポーズを検出することを実演する。
論文 参考訳(メタデータ) (2023-11-22T08:30:20Z) - High-Degrees-of-Freedom Dynamic Neural Fields for Robot Self-Modeling and Motion Planning [6.229216953398305]
ロボットの自己モデル(英: Robot self-model)は、ロボットの運動計画タスクに使用できる身体形態の表現である。
本研究では,高次自由度を条件とした動的オブジェクト中心シーンのためのエンコーダに基づくニューラル密度場アーキテクチャを提案する。
7-DOFロボットテストセットでは、学習された自己モデルは、ロボットの次元ワークスペースの2%のChamfer-L2距離を達成する。
論文 参考訳(メタデータ) (2023-10-05T16:01:29Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Full-Body Visual Self-Modeling of Robot Morphologies [29.76701883250049]
身体の内部計算モデルは、ロボットや動物が行動の計画と制御を行う能力の基礎である。
完全データ駆動型自己モデリングの最近の進歩により、マシンはタスク非依存の相互作用データから直接フォワードキネマティクスを学習できるようになった。
ここでは、フォワードキネマティクスを直接モデル化するのではなく、空間占有クエリに答えることのできる、より有用な自己モデリング形式を提案する。
論文 参考訳(メタデータ) (2021-11-11T18:58:07Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。