論文の概要: LODE: Locally Conditioned Eikonal Implicit Scene Completion from Sparse
LiDAR
- arxiv url: http://arxiv.org/abs/2302.14052v1
- Date: Mon, 27 Feb 2023 18:59:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:17:28.463880
- Title: LODE: Locally Conditioned Eikonal Implicit Scene Completion from Sparse
LiDAR
- Title(参考訳): LODE:Sparse LiDARからの局所条件付きアイコニカルインシシシトシーンコンプリート
- Authors: Pengfei Li, Ruowen Zhao, Yongliang Shi, Hao Zhao, Jirui Yuan, Guyue
Zhou, Ya-Qin Zhang
- Abstract要約: シーン完了(Scene completion)とは、複雑な3Dシーンの不完全な認識から密集したシーン表現を得ることである。
近年の進歩は、暗黙の表現学習を連続的なシーン完了に活用できることを示している。
本稿では,密接な境界値制約として機能する局所的な形状の事前表現を暗黙的に規定する新しいアイコン式を提案する。
- 参考スコア(独自算出の注目度): 5.900616958195897
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Scene completion refers to obtaining dense scene representation from an
incomplete perception of complex 3D scenes. This helps robots detect
multi-scale obstacles and analyse object occlusions in scenarios such as
autonomous driving. Recent advances show that implicit representation learning
can be leveraged for continuous scene completion and achieved through physical
constraints like Eikonal equations. However, former Eikonal completion methods
only demonstrate results on watertight meshes at a scale of tens of meshes.
None of them are successfully done for non-watertight LiDAR point clouds of
open large scenes at a scale of thousands of scenes. In this paper, we propose
a novel Eikonal formulation that conditions the implicit representation on
localized shape priors which function as dense boundary value constraints, and
demonstrate it works on SemanticKITTI and SemanticPOSS. It can also be extended
to semantic Eikonal scene completion with only small modifications to the
network architecture. With extensive quantitative and qualitative results, we
demonstrate the benefits and drawbacks of existing Eikonal methods, which
naturally leads to the new locally conditioned formulation. Notably, we improve
IoU from 31.7% to 51.2% on SemanticKITTI and from 40.5% to 48.7% on
SemanticPOSS. We extensively ablate our methods and demonstrate that the
proposed formulation is robust to a wide spectrum of implementation
hyper-parameters. Codes and models are publicly available at
https://github.com/AIR-DISCOVER/LODE.
- Abstract(参考訳): シーン完了とは、複雑な3Dシーンの不完全な認識から密集したシーン表現を得ることである。
これによりロボットは、マルチスケールの障害物を検出し、自律運転のようなシナリオで物体の閉塞を分析することができる。
近年の進歩は、暗黙表現学習を連続的なシーン完了に活用し、固有方程式のような物理的制約によって達成できることを示した。
しかし、従来の固有完備法は、数十メッシュのスケールで水密メッシュでのみ結果を示す。
それらはいずれも、数千のシーンで大きなシーンを開いている水中のLiDAR点雲に対して成功していない。
本稿では,密接な境界値制約として機能する局所的な形状に暗黙的な表現を条件付け,SemanticKITTIとSemanticPOSSで機能する新しいアイコン式を提案する。
ネットワークアーキテクチャに小さな変更を加えるだけで、セマンティックな固有シーン補完に拡張することもできる。
定量的・定性的な結果から, 既存の固有値法の利点と欠点を示し, 新しい局所条件付き定式化を自然に導く。
特に、IoUをSemanticKITTIで31.7%から51.2%、SemanticPOSSで40.5%から48.7%に改善しています。
提案手法を広範囲にアブレーションし,提案手法が幅広い実装ハイパーパラメータに対して堅牢であることを示す。
コードとモデルはhttps://github.com/AIR-DISCOVER/LODE.comで公開されている。
関連論文リスト
- Object-level Scene Deocclusion [92.39886029550286]
オブジェクトレベルのシーン・デクルージョンのためのPArallel可視・コミュールト拡散フレームワークPACOを提案する。
PACOをトレーニングするために、500kサンプルの大規模なデータセットを作成し、自己教師付き学習を可能にします。
COCOAと様々な現実世界のシーンの実験では、PACOがシーンの排除に優れた能力を示し、芸術の状態をはるかに上回っている。
論文 参考訳(メタデータ) (2024-06-11T20:34:10Z) - Mixed Diffusion for 3D Indoor Scene Synthesis [55.94569112629208]
混合離散連続拡散モデルアーキテクチャであるMiDiffusionを提案する。
シーンレイアウトを2次元のフロアプランとオブジェクトの集合で表現し、それぞれがそのカテゴリ、場所、サイズ、方向で定義する。
実験により,MiDiffusionは床条件下での3次元シーン合成において,最先端の自己回帰モデルや拡散モデルよりもかなり優れていることが示された。
論文 参考訳(メタデータ) (2024-05-31T17:54:52Z) - Symphonize 3D Semantic Scene Completion with Contextual Instance Queries [49.604907627254434]
3Dセマンティック・シーン・コンプリート(SSC)は、自動運転における初期段階かつ重要な取り組みとして登場した。
本稿では,2次元から3次元の再構成と3次元のシーンモデリングを統括するインスタンスクエリの統合を目的とした,シンフォニー(Scene-from-Insts)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-27T17:59:46Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Semi-supervised Implicit Scene Completion from Sparse LiDAR [11.136332180451308]
局所的な形状の埋め込みに半教師付き暗黙関数を条件付ける新しい定式化を開発する。
スパース畳み込みネットワークの強力な表現学習力を利用して、形状対応の高密度特徴量を生成する。
本稿では,この学習システムの本質的特性と実世界の道路シーンにおける有用性を示す。
論文 参考訳(メタデータ) (2021-11-29T18:50:09Z) - Semantic Scene Completion via Integrating Instances and Scene
in-the-Loop [73.11401855935726]
Semantic Scene Completionは、単一の視野深度またはRGBD画像から正確なボキセルワイズセマンティクスで完全な3Dシーンを再構築することを目指しています。
本稿では、シーンレベルのセマンティクス情報とインスタンスレベルのセマンティクス情報の両方を利用するScene-Instance-Scene Network(textitSISNet)を提案する。
本手法は, セマンティックなカテゴリが容易に混在している近傍のオブジェクトと同様に, きめ細かい形状の細部を推定できる。
論文 参考訳(メタデータ) (2021-04-08T09:50:30Z) - Semantic Scene Completion using Local Deep Implicit Functions on LiDAR
Data [4.355440821669468]
本稿では,シーン補完のための新しい学習手法として,局所的な深層インプリシット関数に基づくシーン分割ネットワークを提案する。
この連続表現は、空間的離散化を必要とせず、広い屋外シーンの幾何学的・意味的な特性を符号化するのに適していることを示す。
実験により,本手法が与えられたシーンの高密度な3次元記述にデコード可能な強力な表現を生成することを確認した。
論文 参考訳(メタデータ) (2020-11-18T07:39:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。