論文の概要: Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions
- arxiv url: http://arxiv.org/abs/2206.14854v1
- Date: Wed, 29 Jun 2022 18:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:23:38.114953
- Title: Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions
- Title(参考訳): 神経運動場:暗黙的値関数としての把持軌跡の符号化
- Authors: Yun-Chun Chen, Adithyavairavan Murali, Balakumar Sundaralingam, Wei
Yang, Animesh Garg, Dieter Fox
- Abstract要約: 本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
- 参考スコア(独自算出の注目度): 65.84090965167535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pipeline of current robotic pick-and-place methods typically consists of
several stages: grasp pose detection, finding inverse kinematic solutions for
the detected poses, planning a collision-free trajectory, and then executing
the open-loop trajectory to the grasp pose with a low-level tracking
controller. While these grasping methods have shown good performance on
grasping static objects on a table-top, the problem of grasping dynamic objects
in constrained environments remains an open problem. We present Neural Motion
Fields, a novel object representation which encodes both object point clouds
and the relative task trajectories as an implicit value function parameterized
by a neural network. This object-centric representation models a continuous
distribution over the SE(3) space and allows us to perform grasping reactively
by leveraging sampling-based MPC to optimize this value function.
- Abstract(参考訳): 現在のロボットピック・アンド・プレース方式のパイプラインは一般的にいくつかの段階で構成されている: ポーズの把握、検出されたポーズに対する逆運動解の発見、衝突のない軌道の計画、そして低レベルのトラッキングコントローラでグリップポーズに対するオープンループ軌道の実行。
これらの把持手法はテーブル上における静的オブジェクトの把持において優れた性能を示すが,制約環境における動的オブジェクトの把持問題は未解決の問題である。
ニューラルネットワークによってパラメータ化された暗黙の値関数として,対象点の雲と相対タスクの軌跡の両方をエンコードする新しいオブジェクト表現であるneural motion fieldsを提案する。
このオブジェクト中心表現はse(3)空間上の連続分布をモデル化し、サンプリングベースのmpcを利用してこの値関数を最適化することで、反応的に把握することができる。
関連論文リスト
- Estimating Dynamic Flow Features in Groups of Tracked Objects [2.4344640336100936]
本研究の目的は,不完全なトレーサを持つ複雑な特徴豊富な画像列を特徴とする,勾配に基づく動的システム解析を実世界のアプリケーションに拡張することである。
提案手法は,2つの異なる対象クラスの1つの画像列における動作解析を含む高度な研究を可能にする。
論文 参考訳(メタデータ) (2024-08-29T01:06:51Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。