論文の概要: Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions
- arxiv url: http://arxiv.org/abs/2206.14854v1
- Date: Wed, 29 Jun 2022 18:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 15:23:38.114953
- Title: Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions
- Title(参考訳): 神経運動場:暗黙的値関数としての把持軌跡の符号化
- Authors: Yun-Chun Chen, Adithyavairavan Murali, Balakumar Sundaralingam, Wei
Yang, Animesh Garg, Dieter Fox
- Abstract要約: 本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
- 参考スコア(独自算出の注目度): 65.84090965167535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pipeline of current robotic pick-and-place methods typically consists of
several stages: grasp pose detection, finding inverse kinematic solutions for
the detected poses, planning a collision-free trajectory, and then executing
the open-loop trajectory to the grasp pose with a low-level tracking
controller. While these grasping methods have shown good performance on
grasping static objects on a table-top, the problem of grasping dynamic objects
in constrained environments remains an open problem. We present Neural Motion
Fields, a novel object representation which encodes both object point clouds
and the relative task trajectories as an implicit value function parameterized
by a neural network. This object-centric representation models a continuous
distribution over the SE(3) space and allows us to perform grasping reactively
by leveraging sampling-based MPC to optimize this value function.
- Abstract(参考訳): 現在のロボットピック・アンド・プレース方式のパイプラインは一般的にいくつかの段階で構成されている: ポーズの把握、検出されたポーズに対する逆運動解の発見、衝突のない軌道の計画、そして低レベルのトラッキングコントローラでグリップポーズに対するオープンループ軌道の実行。
これらの把持手法はテーブル上における静的オブジェクトの把持において優れた性能を示すが,制約環境における動的オブジェクトの把持問題は未解決の問題である。
ニューラルネットワークによってパラメータ化された暗黙の値関数として,対象点の雲と相対タスクの軌跡の両方をエンコードする新しいオブジェクト表現であるneural motion fieldsを提案する。
このオブジェクト中心表現はse(3)空間上の連続分布をモデル化し、サンプリングベースのmpcを利用してこの値関数を最適化することで、反応的に把握することができる。
関連論文リスト
- EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - Dynamic Tiling: A Model-Agnostic, Adaptive, Scalable, and
Inference-Data-Centric Approach for Efficient and Accurate Small Object
Detection [3.8332251841430423]
Dynamic Tilingは、小さなオブジェクト検出のためのモデルに依存しない、適応的でスケーラブルなアプローチである。
本手法は, フラグメントオブジェクトを効果的に解決し, 検出精度を向上し, 計算オーバーヘッドを最小限に抑える。
全体として、Dynamic Tilingは既存のモデルに依存しない一様収穫法よりも優れている。
論文 参考訳(メタデータ) (2023-09-20T05:25:12Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - Localization and Tracking of User-Defined Points on Deformable Objects
for Robotic Manipulation [0.0]
本稿では,変形可能なオブジェクトの表面上のユーザ定義点をローカライズする効率的な手法を提案する。
複数ステップの非線形ソルバパイプラインを用いて,実行時に推定される離散化変形場を提案する。
本手法は, 産業生産プロセスにおける非剛体物体の認識に最適であるように, データ並列方式でオンラインのローカライズ問題を解くことができる。
論文 参考訳(メタデータ) (2021-05-19T11:25:33Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Any Motion Detector: Learning Class-agnostic Scene Dynamics from a
Sequence of LiDAR Point Clouds [4.640835690336654]
動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。
本稿では,固有点雲列の固有オドメトリック変換に匹敵する性能で,リアルタイムな推論を実現するためのエゴモーション補償層を提案する。
論文 参考訳(メタデータ) (2020-04-24T10:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。