論文の概要: LMSCNet: Lightweight Multiscale 3D Semantic Completion
- arxiv url: http://arxiv.org/abs/2008.10559v2
- Date: Sun, 25 Oct 2020 15:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:07:08.074396
- Title: LMSCNet: Lightweight Multiscale 3D Semantic Completion
- Title(参考訳): LMSCNet:軽量マルチスケール3Dセマンティックコンプリート
- Authors: Luis Rold\~ao, Raoul de Charette, Anne Verroust-Blondet
- Abstract要約: 本稿では,Voxelized sparse 3D LiDAR スキャンによるマルチスケール3次元シーン補完手法を提案する。
文献とは対照的に,包括的マルチスケールスキップ接続を備えた2次元UNetバックボーンを用いて特徴フローを向上する。
本手法は, セマンティック・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・アプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・コンプリート・
- 参考スコア(独自算出の注目度): 13.774258153124203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new approach for multiscale 3Dsemantic scene completion from
voxelized sparse 3D LiDAR scans. As opposed to the literature, we use a 2D UNet
backbone with comprehensive multiscale skip connections to enhance feature
flow, along with 3D segmentation heads. On the SemanticKITTI benchmark, our
method performs on par on semantic completion and better on occupancy
completion than all other published methods -- while being significantly
lighter and faster. As such it provides a great performance/speed trade-off for
mobile-robotics applications. The ablation studies demonstrate our method is
robust to lower density inputs, and that it enables very high speed semantic
completion at the coarsest level. Our code is available at
https://github.com/cv-rits/LMSCNet.
- Abstract(参考訳): 本稿では,Voxelized sparse 3D LiDAR スキャンによるマルチスケール3次元シーン補完手法を提案する。
文献とは対照的に,包括的マルチスケールスキップ接続を備えた2次元UNetバックボーンを用いて特徴フローと3次元セグメンテーションヘッドを向上する。
semantickittiベンチマークでは、このメソッドはセマンティックコンプリートと同等に動作し、他のすべてのパブリッシュされたメソッドよりも高い占有率でコンプリートを実行します。
そのため、モバイルロボティクスアプリケーションにとって、優れたパフォーマンス/スピードトレードオフを提供する。
アブレーション研究は,低密度入力に対してロバストであり,最も粗いレベルでの高速セマンティクス補完を可能にすることを実証した。
私たちのコードはhttps://github.com/cv-rits/lmscnetで利用可能です。
関連論文リスト
- DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - Flash3D: Feed-Forward Generalisable 3D Scene Reconstruction from a Single Image [80.48452783328995]
Flash3Dは、1つの画像からシーン再構成と新しいビュー合成を行う方法である。
一般性については、単分子深度推定のための「基礎」モデルから始める。
効率性のために、我々はこの拡張をフィードフォワードガウススプラッティングに基づける。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - FastLGS: Speeding up Language Embedded Gaussians with Feature Grid Mapping [29.5427444688567]
我々は高解像度で3Dガウススプラッティング(3DGS)内でリアルタイムなオープン語彙クエリをサポートするアプローチであるFastLGSを提案する。
FastLGSはLERFより98倍、LangSplatより4倍速い。
実験により、FastLGSは3Dセグメンテーションや3Dオブジェクトのインペイントなど、多くの下流タスクに適応し、互換性があることが示されている。
論文 参考訳(メタデータ) (2024-06-04T02:57:09Z) - SAI3D: Segment Any Instance in 3D Scenes [68.57002591841034]
新規なゼロショット3Dインスタンスセグメンテーション手法であるSAI3Dを紹介する。
我々の手法は3Dシーンを幾何学的プリミティブに分割し、段階的に3Dインスタンスセグメンテーションにマージする。
ScanNet、Matterport3D、さらに難しいScanNet++データセットに関する実証的な評価は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-12-17T09:05:47Z) - CoT3DRef: Chain-of-Thoughts Data-Efficient 3D Visual Grounding [23.885017062031217]
3Dビジュアルグラウンドティングは、発話によって条件付けられた3Dシーンでオブジェクトをローカライズする機能である。
既存のほとんどのメソッドは参照ヘッドを使って参照オブジェクトを直接ローカライズし、複雑なシナリオで失敗する。
本稿では,まずアンカーの連鎖と最終目標を予測し,シークエンス・ツー・シーケンスのSeq2Seqタスクとして3次元視覚接地問題を定式化する。
論文 参考訳(メタデータ) (2023-10-10T00:07:25Z) - VoxelNeXt: Fully Sparse VoxelNet for 3D Object Detection and Tracking [78.25819070166351]
完全スパース3次元物体検出のためのVoxelNextを提案する。
私たちの中核となる洞察は、手作りのプロキシに頼ることなく、スパースボクセル機能に基づいてオブジェクトを直接予測することです。
私たちの強力なスパース畳み込みネットワークVoxelNeXtは、voxelの機能を通して3Dオブジェクトを検出し、追跡します。
論文 参考訳(メタデータ) (2023-03-20T17:40:44Z) - CLIP2Scene: Towards Label-efficient 3D Scene Understanding by CLIP [55.864132158596206]
Contrastive Language-Image Pre-Training (CLIP) は、2次元ゼロショットおよび少数ショット学習において有望な結果をもたらす。
私たちは,CLIP知識が3Dシーン理解にどう役立つか,最初の試みを行う。
筆者らは,CLIPの知識を2次元画像テキスト事前学習モデルから3次元ポイント・クラウド・ネットワークに転送するフレームワークであるCLIP2Sceneを提案する。
論文 参考訳(メタデータ) (2023-01-12T10:42:39Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z) - 3D-MiniNet: Learning a 2D Representation from Point Clouds for Fast and
Efficient 3D LIDAR Semantic Segmentation [9.581605678437032]
3D-MiniNetは、3Dと2Dの学習層を組み合わせたLIDARセマンティックセグメンテーションの新しいアプローチである。
まず,3次元データから局所的およびグローバル的情報を抽出する新しいプロジェクションにより,原点から2次元表現を学習する。
これらの2Dセマンティックラベルは、3D空間に再プロジェクションされ、後処理モジュールを通じて拡張される。
論文 参考訳(メタデータ) (2020-02-25T14:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。