論文の概要: Semi-supervised Implicit Scene Completion from Sparse LiDAR
- arxiv url: http://arxiv.org/abs/2111.14798v1
- Date: Mon, 29 Nov 2021 18:50:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 17:33:09.791887
- Title: Semi-supervised Implicit Scene Completion from Sparse LiDAR
- Title(参考訳): スパースLiDARからの半教師付きインシシットシーン補完
- Authors: Pengfei Li, Yongliang Shi, Tianyu Liu, Hao Zhao, Guyue Zhou, Ya-Qin
Zhang
- Abstract要約: 局所的な形状の埋め込みに半教師付き暗黙関数を条件付ける新しい定式化を開発する。
スパース畳み込みネットワークの強力な表現学習力を利用して、形状対応の高密度特徴量を生成する。
本稿では,この学習システムの本質的特性と実世界の道路シーンにおける有用性を示す。
- 参考スコア(独自算出の注目度): 11.136332180451308
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances show that semi-supervised implicit representation learning
can be achieved through physical constraints like Eikonal equations. However,
this scheme has not yet been successfully used for LiDAR point cloud data, due
to its spatially varying sparsity. In this paper, we develop a novel
formulation that conditions the semi-supervised implicit function on localized
shape embeddings. It exploits the strong representation learning power of
sparse convolutional networks to generate shape-aware dense feature volumes,
while still allows semi-supervised signed distance function learning without
knowing its exact values at free space. With extensive quantitative and
qualitative results, we demonstrate intrinsic properties of this new learning
system and its usefulness in real-world road scenes. Notably, we improve IoU
from 26.3% to 51.0% on SemanticKITTI. Moreover, we explore two paradigms to
integrate semantic label predictions, achieving implicit semantic completion.
Code and models can be accessed at https://github.com/OPEN-AIR-SUN/SISC.
- Abstract(参考訳): 近年の進歩は、半教師付き暗黙的表現学習は、アイコン方程式のような物理的制約によって達成できることを示している。
しかし、このスキームは空間的に異なるため、LiDAR点雲データにはまだ使われていない。
本稿では,局所的な形状の埋め込みに対して半教師付き暗黙関数を条件付ける新しい定式化を開発する。
スパース畳み込みネットワークの強い表現学習能力を利用して、形状認識された密集した特徴量を生成する一方で、自由空間における正確な値を知ることなく半教師付き符号付き距離関数学習を可能にする。
そこで本研究では,本システムの本質的特性と実世界の道路シーンにおける有用性を示す。
特に,SemanticKITTIではIoUを26.3%から51.0%に改善する。
さらに,意味的ラベル予測を統合し,暗黙的な意味的補完を実現するための2つのパラダイムを検討する。
コードとモデルはhttps://github.com/OPEN-AIR-SUN/SISCでアクセスできる。
関連論文リスト
- 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - IPoD: Implicit Field Learning with Point Diffusion for Generalizable 3D Object Reconstruction from Single RGB-D Images [50.4538089115248]
シングルビューRGB-D画像からの3Dオブジェクトの汎用化は依然として難しい課題である。
本稿では,暗黙の場学習と点拡散を調和させる新しい手法IPoDを提案する。
CO3D-v2データセットによる実験では、IPoDの優位性が確認され、Fスコアは7.8%、チャンファー距離は28.6%向上した。
論文 参考訳(メタデータ) (2024-03-30T07:17:37Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - Attention-Guided Lidar Segmentation and Odometry Using Image-to-Point Cloud Saliency Transfer [6.058427379240697]
SalLiDARは3次元セマンティックセマンティックセマンティクスモデルであり、セマンティクス性能を向上させるために、サリエンシ情報を統合する。
SalLONetは、SalLiDARのセマンティックおよびサリエンシ予測を用いて、より優れたオドメトリー推定を実現する、自己監督型サリエンシ誘導型LiDARオドメトリーネットワークである。
論文 参考訳(メタデータ) (2023-08-28T06:22:10Z) - LODE: Locally Conditioned Eikonal Implicit Scene Completion from Sparse
LiDAR [5.900616958195897]
シーン完了(Scene completion)とは、複雑な3Dシーンの不完全な認識から密集したシーン表現を得ることである。
近年の進歩は、暗黙の表現学習を連続的なシーン完了に活用できることを示している。
本稿では,密接な境界値制約として機能する局所的な形状の事前表現を暗黙的に規定する新しいアイコン式を提案する。
論文 参考訳(メタデータ) (2023-02-27T18:59:58Z) - Few 'Zero Level Set'-Shot Learning of Shape Signed Distance Functions in
Feature Space [6.675491069288519]
ポイントクラウドからの学習に基づく形状再構成の新しいアイデアを探求する。
私たちは畳み込みエンコーダを使用して、入力ポイントクラウドを前提とした機能空間を構築します。
暗黙デコーダは、この特徴空間に表される点について符号付き距離値を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-07-09T00:14:39Z) - Scribble-Supervised LiDAR Semantic Segmentation [102.62963605429508]
我々は、LiDARの点雲に注釈をつけるためにスクリブルを使用し、LiDARセマンティックセマンティックセグメンテーションのための最初のスクリブルアノテートデータセットであるScribbleKITTIをリリースする。
私たちのパイプラインは3つのスタンドアロンコントリビューションで構成されており、すべてのLiDARセマンティックセグメンテーションモデルと組み合わせて、完全に管理されたパフォーマンスの95.7%を達成できます。
論文 参考訳(メタデータ) (2022-03-16T11:01:23Z) - S3CNet: A Sparse Semantic Scene Completion Network for LiDAR Point
Clouds [0.16799377888527683]
S3CNetはスパース畳み込みに基づくニューラルネットワークで、単一で統一されたLiDARポイントクラウドからセマンティックに完了したシーンを予測する。
提案手法は,Semantic KITTI ベンチマークを用いて,3次元課題における全ての課題に対して優れることを示す。
論文 参考訳(メタデータ) (2020-12-16T20:14:41Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。