論文の概要: Learning Continuous Environment Fields via Implicit Functions
- arxiv url: http://arxiv.org/abs/2111.13997v1
- Date: Sat, 27 Nov 2021 22:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:10:39.289969
- Title: Learning Continuous Environment Fields via Implicit Functions
- Title(参考訳): 暗黙関数による連続環境場学習
- Authors: Xueting Li, Shalini De Mello, Xiaolong Wang, Ming-Hsuan Yang, Jan
Kautz, Sifei Liu
- Abstract要約: 本研究では,到達距離(シーン内の任意の位置から目標までの距離)を,実現可能な軌道に沿って符号化する新しいシーン表現を提案する。
本研究では,2次元迷路や屋内3次元シーンにおけるエージェントの動的挙動を直接導出できることを実証する。
- 参考スコア(独自算出の注目度): 144.4913852552954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel scene representation that encodes reaching distance -- the
distance between any position in the scene to a goal along a feasible
trajectory. We demonstrate that this environment field representation can
directly guide the dynamic behaviors of agents in 2D mazes or 3D indoor scenes.
Our environment field is a continuous representation and learned via a neural
implicit function using discretely sampled training data. We showcase its
application for agent navigation in 2D mazes, and human trajectory prediction
in 3D indoor environments. To produce physically plausible and natural
trajectories for humans, we additionally learn a generative model that predicts
regions where humans commonly appear, and enforce the environment field to be
defined within such regions. Extensive experiments demonstrate that the
proposed method can generate both feasible and plausible trajectories
efficiently and accurately.
- Abstract(参考訳): 本研究では,到達距離(シーン内の任意の位置から目標までの距離)を,実現可能な軌道に沿って符号化する新しいシーン表現を提案する。
本研究では,2次元迷路や室内3次元シーンにおけるエージェントの動的挙動を直接導出できることを実証する。
我々の環境分野は連続的な表現であり、個別にサンプル化したトレーニングデータを用いてニューラル暗黙関数を通して学習する。
2次元迷路におけるエージェントナビゲーションおよび3次元室内環境における人間の軌道予測への応用について紹介する。
人間にとって物理的に有理で自然な軌道を生成するために、人間の出現する領域を予測する生成モデルを学び、その領域内で環境領域を定義することを強制する。
広範な実験により,提案手法が効率的に高精度に実現可能な軌道を生成できることが実証された。
関連論文リスト
- CARFF: Conditional Auto-encoded Radiance Field for 3D Scene Forecasting [16.164569768091486]
CARFF: 3次元シーン予測のための条件付き自動符号化レーダランスフィールドを提案する。
本手法は,確率エンコーダを用いて,画像の3次元潜在シーン構成上の分布にマッピングする。
CarFFは、複雑なマルチエージェント自律運転シナリオにおける効率的な軌道計画と緊急計画を可能にするために使用できる。
論文 参考訳(メタデータ) (2024-01-31T18:56:09Z) - WildScenes: A Benchmark for 2D and 3D Semantic Segmentation in
Large-scale Natural Environments [34.24004079703609]
WildScenesは、自然環境における複数の大規模データセットからなる、バイモーダルなベンチマークデータセットである。
データは軌道中心であり、正確なローカライゼーションとグローバルに整列した点雲がある。
本稿では,2次元および3次元セマンティックセマンティックセグメンテーションのベンチマークを導入し,近年のディープラーニング技術の評価を行う。
論文 参考訳(メタデータ) (2023-12-23T22:27:40Z) - Visual Affordance Prediction for Guiding Robot Exploration [56.17795036091848]
我々は,ロボット探索を導くための視覚能力の学習手法を開発した。
VQ-VAEの潜伏埋め込み空間における条件分布の学習にはTransformerベースのモデルを用いる。
本稿では,ロボット操作における視覚的目標条件付きポリシー学習において,目標サンプリング分布として機能することで探索を導くために,トレーニングされた余裕モデルをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2023-05-28T17:53:09Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z) - Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion [83.88829943619656]
本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
我々のガイド付き拡散モデルでは,対象とする経路,速度,特定社会集団による軌道の制約が可能である。
本稿では,アニメーションコントローラのRLトレーニング中に学習した値関数を用いて,拡散を誘導し,特定のシナリオに適した軌道を生成することを提案する。
論文 参考訳(メタデータ) (2023-04-04T15:46:42Z) - Neural Poisson: Indicator Functions for Neural Fields [25.41908065938424]
3次元形状の符号付き距離場表現(SDF)は顕著な進展を示した。
本稿では,3次元シーンのニューラルフィールド表現のための新しいパラダイムを提案する。
提案手法は, 合成3次元シーンデータと実写3次元シーンデータの両方に対して, 最先端の再構築性能を示す。
論文 参考訳(メタデータ) (2022-11-25T17:28:22Z) - Pose2Room: Understanding 3D Scenes from Human Activities [35.702234343672565]
ウェアラブルIMUセンサーを使えば、視覚的な入力を必要とせずに、ウェアラブルデバイスから人間のポーズを推定することができる。
P2R-Netは人体の動きの多モード分布を効果的に学習できることを示す。
論文 参考訳(メタデータ) (2021-12-01T20:54:36Z) - Environment Predictive Coding for Embodied Agents [92.31905063609082]
本稿では,環境レベルの表現を具体化エージェントに学習する自己教師型手法である環境予測符号化を導入する。
GibsonとMatterport3Dのフォトリアリスティックな3D環境に関する実験により、我々の手法は、限られた経験の予算しか持たない課題において、最先端の課題よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-02-03T23:43:16Z) - Long-term Human Motion Prediction with Scene Context [60.096118270451974]
人間の動きを予測するための新しい3段階フレームワークを提案する。
提案手法はまず,まず複数の人間の動作目標を抽出し,各目標に向けて3次元人間の動作経路を計画し,最後に各経路に続く3次元人間のポーズシーケンスを予測する。
論文 参考訳(メタデータ) (2020-07-07T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。