論文の概要: Depth Based Semantic Scene Completion with Position Importance Aware
Loss
- arxiv url: http://arxiv.org/abs/2001.10709v2
- Date: Thu, 30 Jan 2020 20:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:21:41.096199
- Title: Depth Based Semantic Scene Completion with Position Importance Aware
Loss
- Title(参考訳): 位置重要度を考慮した深さに基づく意味的シーン補完
- Authors: Yu Liu, Jie Li, Xia Yuan, Chunxia Zhao, Roland Siegwart, Ian Reid,
Cesar Cadena
- Abstract要約: PALNetはセマンティックシーン補完のための新しいハイブリッドネットワークである。
詳細な深度情報を用いて,多段階から2次元特徴と3次元特徴の両方を抽出する。
オブジェクトのバウンダリやシーンの隅といった重要な詳細を復元することは有益である。
- 参考スコア(独自算出の注目度): 52.06051681324545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic Scene Completion (SSC) refers to the task of inferring the 3D
semantic segmentation of a scene while simultaneously completing the 3D shapes.
We propose PALNet, a novel hybrid network for SSC based on single depth. PALNet
utilizes a two-stream network to extract both 2D and 3D features from
multi-stages using fine-grained depth information to efficiently captures the
context, as well as the geometric cues of the scene. Current methods for SSC
treat all parts of the scene equally causing unnecessary attention to the
interior of objects. To address this problem, we propose Position Aware
Loss(PA-Loss) which is position importance aware while training the network.
Specifically, PA-Loss considers Local Geometric Anisotropy to determine the
importance of different positions within the scene. It is beneficial for
recovering key details like the boundaries of objects and the corners of the
scene. Comprehensive experiments on two benchmark datasets demonstrate the
effectiveness of the proposed method and its superior performance. Models and
Video demo can be found at: https://github.com/UniLauX/PALNet.
- Abstract(参考訳): 意味シーン完成(ssc)とは、シーンの3d意味セグメンテーションを推論し、同時に3d形状を完了させるタスクを指す。
単一深度に基づくSSCのための新しいハイブリッドネットワークであるPALNetを提案する。
PALNetは2ストリームネットワークを用いて、詳細な深度情報を用いて2次元特徴と3次元特徴の両方を多段階から抽出し、シーンの幾何学的手がかりを効率的に捉える。
SSCの現在の方法では、シーンのすべての部分が同様にオブジェクトの内部に不必要に注意を向けている。
この問題に対処するために,ネットワークをトレーニング中に位置認識する位置認識損失(PA-Loss)を提案する。
特にPA-ロスは、シーン内の異なる位置の重要性を決定するために局所幾何学的異方性を考える。
オブジェクトのバウンダリやシーンの隅といった重要な詳細を復元することは有益である。
2つのベンチマークデータセットの総合実験により,提案手法の有効性と優れた性能を示す。
モデルとビデオのデモは、https://github.com/UniLauX/PALNet.comで見ることができる。
関連論文リスト
- Self-supervised Learning of Neural Implicit Feature Fields for Camera Pose Refinement [32.335953514942474]
本稿では,3次元の高密度特徴場と2次元の特徴抽出器を併用してシーン表現を共同学習することを提案する。
暗黙の場に符号化された中間的幾何情報を活用するために、ボリュームレンダリングを通してシーンの基盤となる幾何学を学習し、特徴体を設計する。
次に、画像ベースの機能とレンダリングされたボリューム機能を調整することで、視覚的なローカライゼーションを実現する。
論文 参考訳(メタデータ) (2024-06-12T17:51:53Z) - SLCF-Net: Sequential LiDAR-Camera Fusion for Semantic Scene Completion using a 3D Recurrent U-Net [18.342569823885864]
SLCF-Netは、LiDARとカメラデータを逐次融合するSemantic Scene Completionタスクの新しいアプローチである。
それは、RGB画像のシーケンスと疎LiDAR測定から、シーンの欠落した幾何学と意味を共同で推定する。
すべてのSSC測定値に優れ、時間的整合性を示す。
論文 参考訳(メタデータ) (2024-03-13T18:12:53Z) - ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - 3DRP-Net: 3D Relative Position-aware Network for 3D Visual Grounding [58.924180772480504]
3Dビジュアルグラウンドは、自由形式の言語記述によって、ターゲットオブジェクトを3Dポイントクラウドにローカライズすることを目的としている。
3次元相対位置認識ネットワーク(3-Net)という,関係性を考慮した一段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T09:33:25Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - VS-Net: Voting with Segmentation for Visual Localization [72.8165619061249]
本稿では,クエリ画像と3Dマップ間の2次元から3次元の対応を学習可能なシーン固有のランドマークで構築する,新しい視覚的ローカライゼーションフレームワークを提案する。
提案したVS-Netは、複数の公開ベンチマークで広範囲にテストされており、最先端のビジュアルローカライゼーション手法より優れている。
論文 参考訳(メタデータ) (2021-05-23T08:44:11Z) - Semantic Scene Completion using Local Deep Implicit Functions on LiDAR
Data [4.355440821669468]
本稿では,シーン補完のための新しい学習手法として,局所的な深層インプリシット関数に基づくシーン分割ネットワークを提案する。
この連続表現は、空間的離散化を必要とせず、広い屋外シーンの幾何学的・意味的な特性を符号化するのに適していることを示す。
実験により,本手法が与えられたシーンの高密度な3次元記述にデコード可能な強力な表現を生成することを確認した。
論文 参考訳(メタデータ) (2020-11-18T07:39:13Z) - 3D Sketch-aware Semantic Scene Completion via Semi-supervised Structure
Prior [50.73148041205675]
セマンティック・シーン・コンプリート(SSC)タスクの目標は、単一視点で観察することで、ボリューム占有率とシーン内のオブジェクトの意味ラベルの完全な3Dボクセル表現を同時に予測することである。
低解像度のボクセル表現で深度情報を埋め込む新しい幾何学的手法を提案する。
提案手法は,SSCフレームワークからの深度特徴学習よりも有効である。
論文 参考訳(メタデータ) (2020-03-31T09:33:46Z) - DELTAS: Depth Estimation by Learning Triangulation And densification of
Sparse points [14.254472131009653]
多視点ステレオ (MVS) は, 能動深度センシングの精度と単眼深度推定の実用性の間の黄金平均値である。
3次元畳み込みニューラルネットワーク(CNN)を用いたコストボリュームベースのアプローチにより、MVSシステムの精度が大幅に向上した。
まず、(a)興味点の記述子を検出して評価し、次に(b)興味点の小さな集合をマッチングして三角測量し、最後に(c)CNNを用いてこのスパースな3D点の集合を密度化することで、効率的な深さ推定手法を提案する。
論文 参考訳(メタデータ) (2020-03-19T17:56:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。