論文の概要: Category-Independent Articulated Object Tracking with Factor Graphs
- arxiv url: http://arxiv.org/abs/2205.03721v1
- Date: Sat, 7 May 2022 20:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 07:05:55.471133
- Title: Category-Independent Articulated Object Tracking with Factor Graphs
- Title(参考訳): 因子グラフを用いたカテゴリー非依存調音物体追跡
- Authors: Nick Heppert, Toki Migimatsu, Brent Yi, Claire Chen, Jeannette Bohg
- Abstract要約: アーティキュレートされた物体は、カテゴリー的先行と矛盾する予期せぬ調音機構を持つ。
RGB-D画像のシーケンスから未知物体の調音モデルを予測するためのカテゴリ非依存のフレームワークを提案する。
我々の視覚知覚と因子グラフモジュールは、シミュレーションデータに基づくベースラインよりも優れており、実世界のデータに対する因子グラフの適用性を示している。
- 参考スコア(独自算出の注目度): 14.574389906480867
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots deployed in human-centric environments may need to manipulate a
diverse range of articulated objects, such as doors, dishwashers, and cabinets.
Articulated objects often come with unexpected articulation mechanisms that are
inconsistent with categorical priors: for example, a drawer might rotate about
a hinge joint instead of sliding open. We propose a category-independent
framework for predicting the articulation models of unknown objects from
sequences of RGB-D images. The prediction is performed by a two-step process:
first, a visual perception module tracks object part poses from raw images, and
second, a factor graph takes these poses and infers the articulation model
including the current configuration between the parts as a 6D twist. We also
propose a manipulation-oriented metric to evaluate predicted joint twists in
terms of how well a compliant robot controller would be able to manipulate the
articulated object given the predicted twist. We demonstrate that our visual
perception and factor graph modules outperform baselines on simulated data and
show the applicability of our factor graph on real world data.
- Abstract(参考訳): 人間中心の環境に配備されるロボットは、ドア、食器洗い機、キャビネットなど様々な関節を持った物体を操作する必要がある。
アーティキュレートされた物体は、しばしば、カテゴリーの先行と矛盾しない予期せぬ調音機構を持つ:例えば、引き出しは、開いたままではなくヒンジジョイントの周りで回転する。
rgb-d画像のシーケンスから未知物体の調音モデルを予測するためのカテゴリ非依存フレームワークを提案する。
第1に、視覚知覚モジュールは、原画像からのオブジェクト部分のポーズを追跡し、第2に、因子グラフは、これらのポーズを取り、これらの部分間の現在の構成を含む調音モデルを6Dツイストとして推論する。
また,予測されたひねりを考慮すれば,協調型ロボットコントローラが関節オブジェクトをどの程度操作できるかという観点で,予測された関節ねじれを評価するためのマニピュレーション指向メトリックを提案する。
シミュレーションデータでは視覚知覚と因子グラフモジュールがベースラインを上回ることを実証し,実データに対する因子グラフの適用性を示す。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - GAMMA: Generalizable Articulation Modeling and Manipulation for
Articulated Objects [53.965581080954905]
本稿では,GAMMA(Generalizable Articulation Modeling and Manipulating for Articulated Objects)の新たな枠組みを提案する。
GAMMAは,異なるカテゴリーの多種多様な調音オブジェクトから,調音モデルと手取りポーズの相違を学習する。
その結果, GAMMA はSOTA の調音モデルおよび操作アルゴリズムを, 目に見えない, 横断的な調音オブジェクトで著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2023-09-28T08:57:14Z) - Occupancy Planes for Single-view RGB-D Human Reconstruction [120.5818162569105]
暗黙的な機能を持つシングルビューRGB-Dヒト再構成は、しばしばポイント単位の分類として定式化される。
本稿では,カメラの視野フラストラムをスライスする平面上での占有率予測として,一視点のRGB-D人間の再構成を定式化できる占有面(OPlanes)表現を提案する。
論文 参考訳(メタデータ) (2022-08-04T17:59:56Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Object and Relation Centric Representations for Push Effect Prediction [18.990827725752496]
プッシュは、プレグレープ操作からシーンアレンジメントまでのタスクに使用される、非包括的操作スキルである。
本稿では,プッシュ動作の効果予測とパラメータ推定のためのグラフニューラルネットワークに基づくフレームワークを提案する。
本フレームワークは,異なる種類の接合体と異なる質量を有する物体を介して接続された異なる形状の多部オブジェクトを含む実環境と模擬環境の両方で検証される。
論文 参考訳(メタデータ) (2021-02-03T15:09:12Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - Motion Segmentation using Frequency Domain Transformer Networks [29.998917158604694]
本稿では,前景と背景を別々にモデル化することで,次のフレームを予測できる新しいエンドツーエンド学習アーキテクチャを提案する。
我々の手法は、ビデオラダーネットワークや予測ゲーテッドピラミドなど、広く使われているビデオ予測手法よりも優れた合成データが得られる。
論文 参考訳(メタデータ) (2020-04-18T15:05:11Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。