論文の概要: Robust Contact State Estimation in Humanoid Walking Gaits
- arxiv url: http://arxiv.org/abs/2208.00278v1
- Date: Sat, 30 Jul 2022 17:19:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:18:25.626431
- Title: Robust Contact State Estimation in Humanoid Walking Gaits
- Title(参考訳): ヒューマノイド歩行におけるロバスト接触状態の推定
- Authors: Stylianos Piperakis, Michael Maravgakis, Dimitrios Kanoulas, and Panos
Trahanias
- Abstract要約: 本稿では,ヒト型歩行歩行ロボットの脚接触検出問題に対する統一的なアプローチを提供するディープラーニングフレームワークを提案する。
我々の定式化は各脚の接触状態の確率を正確かつ確実に推定する。
我々の実装はLegged Contact Detection (LCD)と呼ばれるオープンソースのROS/Pythonパッケージとして提供されている。
- 参考スコア(独自算出の注目度): 3.1866319932300953
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this article, we propose a deep learning framework that provides a unified
approach to the problem of leg contact detection in humanoid robot walking
gaits. Our formulation accomplishes to accurately and robustly estimate the
contact state probability for each leg (i.e., stable or slip/no contact). The
proposed framework employs solely proprioceptive sensing and although it relies
on simulated ground-truth contact data for the classification process, we
demonstrate that it generalizes across varying friction surfaces and different
legged robotic platforms and, at the same time, is readily transferred from
simulation to practice. The framework is quantitatively and qualitatively
assessed in simulation via the use of ground-truth contact data and is
contrasted against state of-the-art methods with an ATLAS, a NAO, and a TALOS
humanoid robot. Furthermore, its efficacy is demonstrated in base estimation
with a real TALOS humanoid. To reinforce further research endeavors, our
implementation is offered as an open-source ROS/Python package, coined Legged
Contact Detection (LCD).
- Abstract(参考訳): 本稿では,ヒト型歩行歩行ロボットの脚接触検出問題に対する統一的なアプローチを提供するディープラーニングフレームワークを提案する。
我々の定式化は、各脚の接触状態確率(安定またはすべり/無接触)を正確かつ確実に推定する。
提案手法は, 主観知覚のみを用いており, 分類過程において, 接点データのシミュレーションに頼っているものの, 摩擦面や脚の異なるロボットプラットフォームにまたがって一般化し, 同時に, シミュレーションから実践へ容易に移行できることを実証する。
このフレームワークは、接地木接触データを用いてシミュレーションにおいて定量的に定性的に評価され、ATLAS、NAO、TALOSのヒューマノイドロボットと最先端の手法と対比される。
さらに、その効果は、実際のTALOSヒューマノイドを用いたベース推定で示される。
さらなる研究活動を強化するため,我々の実装はLegged Contact Detection (LCD)と呼ばれるオープンソースのROS/Pythonパッケージとして提供される。
関連論文リスト
- Chatting Up Attachment: Using LLMs to Predict Adult Bonds [0.0]
GPT-4とClaude 3 Opusを使用して、さまざまなプロファイル、子供時代の記憶、アタッチメントスタイルを持つ大人をシミュレートするエージェントを作成します。
我々は,同一の面接プロトコルを施行し,精神保健専門家によって分析・ラベル付けされた9人のヒトの転写データセットを用いて,我々のモデルを評価した。
以上の結果から,合成データのみを用いたモデルトレーニングは,人間のデータを用いたモデルトレーニングに匹敵する性能を発揮することが示唆された。
論文 参考訳(メタデータ) (2024-08-31T04:29:19Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Enhanced Human-Robot Collaboration using Constrained Probabilistic
Human-Motion Prediction [5.501477817904299]
本研究では,人間の関節の制約とシーンの制約を組み込んだ新しい動き予測フレームワークを提案する。
人間の腕のキネマティックモデルでテストされ、UR5ロボットアームと人間とロボットの協調的な設定で実装されている。
論文 参考訳(メタデータ) (2023-10-05T05:12:14Z) - Tactile Estimation of Extrinsic Contact Patch for Stable Placement [64.06243248525823]
本稿では,複雑な物体を積み重ねることを学ぶロボットのためのフィードバックスキルの設計について述べる。
つかんだ物体とその環境間の接触パッチを,力と触覚の観測により推定する。
論文 参考訳(メタデータ) (2023-09-25T21:51:48Z) - Towards Precise Model-free Robotic Grasping with Sim-to-Real Transfer
Learning [11.470950882435927]
本稿では,ロボットの把持ネットワークについて述べる。
物理ロボット実験では,1つの既知の物体と,90.91%の成功率を持つ新しい複合形状の家庭用物体を把握した。
提案した把握フレームワークは、既知の物体と未知の物体の両方において、最先端の2つの手法より優れていた。
論文 参考訳(メタデータ) (2023-01-28T16:57:19Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。