論文の概要: TransUPR: A Transformer-based Uncertain Point Refiner for LiDAR Point
Cloud Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2302.08594v1
- Date: Thu, 16 Feb 2023 21:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:34:46.806142
- Title: TransUPR: A Transformer-based Uncertain Point Refiner for LiDAR Point
Cloud Semantic Segmentation
- Title(参考訳): transupr:lidar point cloudセマンティクスセグメンテーションのためのトランスフォーマーベースの不確定点リファインダ
- Authors: Zifan Yu, Meida Chen, Zhikang Zhang, Suya You and Fengbo Ren
- Abstract要約: プラグアンドプレイ変換器を用いた不確実点精製器(TransUPR)を提案する。
局所的特徴集約、不確実点ローカライゼーション、自己注意に基づくトランスフォーマー設計を通じて、トランスUPRは既存の範囲画像ベースのLiDAR PCSSアプローチに統合される。
- 参考スコア(独自算出の注目度): 9.281656283411547
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we target the problem of uncertain points refinement for
image-based LiDAR point cloud semantic segmentation (LiDAR PCSS). This problem
mainly results from the boundary-blurring problem of convolution neural
networks (CNNs) and quantitation loss of spherical projection, which are often
hard to avoid for common image-based LiDAR PCSS approaches. We propose a
plug-and-play transformer-based uncertain point refiner (TransUPR) to address
the problem. Through local feature aggregation, uncertain point localization,
and self-attention-based transformer design, TransUPR, integrated into an
existing range image-based LiDAR PCSS approach (e.g., CENet), achieves the
state-of-the-art performance (68.2% mIoU) on Semantic-KITTI benchmark, which
provides a performance improvement of 0.6% on the mIoU.
- Abstract(参考訳): 本研究では,画像に基づくLiDARポイントクラウドセマンティックセマンティックセグメンテーション (LiDAR PCSS) における不確定点修正の問題をターゲットにした。
この問題は、畳み込みニューラルネットワーク(cnns)の境界フラリング問題と球面投影の量子化損失が主な原因で、一般的な画像ベースのlidar pcssアプローチでは避け難いことが多い。
プラグアンドプレイ変換器を用いた不確実点精製器(TransUPR)を提案する。
局所的特徴集約、不確実点ローカライゼーション、自己注意型トランスフォーマー設計を通じて、トランスUPRは既存の範囲イメージベースのLiDAR PCSSアプローチ(例えばCENet)に統合され、セマンティックKITTIベンチマークの最先端性能(68.2% mIoU)を達成し、mIoUのパフォーマンスは0.6%向上した。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できることを示す。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - Spherical Frustum Sparse Convolution Network for LiDAR Point Cloud Semantic Segmentation [62.258256483231484]
LiDARポイントクラウドセマンティックセグメンテーションにより、ロボットは周囲の環境のきめ細かいセマンティック情報を得ることができる。
多くの研究が2Dイメージ上にポイントクラウドを投影し、LiDARポイントクラウドセマンティックセグメンテーションのための2D畳み込みニューラルネットワーク(CNN)またはビジョントランスフォーマーを採用する。
本稿では,情報損失の定量化を回避するために,新しい球状フラストラム構造を提案する。
論文 参考訳(メタデータ) (2023-11-29T09:55:13Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - CPGNet: Cascade Point-Grid Fusion Network for Real-Time LiDAR Semantic
Segmentation [8.944151935020992]
本稿では,有効性と効率を両立するカスケードポイントグリッド融合ネットワーク(CPGNet)を提案する。
アンサンブルモデルやTTAのないCPGNetは最先端のRPVNetと同等だが、4.7倍高速である。
論文 参考訳(メタデータ) (2022-04-21T06:56:30Z) - CpT: Convolutional Point Transformer for 3D Point Cloud Processing [10.389972581905]
CpT: Convolutional Point Transformer - 3Dポイントクラウドデータの非構造化の性質を扱うための新しいディープラーニングアーキテクチャ。
CpTは、既存の注目ベースのConvolutions Neural Networksと、以前の3Dポイントクラウド処理トランスフォーマーの改善である。
我々のモデルは、既存の最先端のアプローチと比較して、様々なポイントクラウド処理タスクの効果的なバックボーンとして機能する。
論文 参考訳(メタデータ) (2021-11-21T17:45:55Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z) - Quaternion Equivariant Capsule Networks for 3D Point Clouds [58.566467950463306]
本稿では,3次元回転と翻訳に同値な点雲を処理するための3次元カプセルモジュールを提案する。
カプセル間の動的ルーティングをよく知られたWeiszfeldアルゴリズムに接続する。
オペレーターに基づいて、ポーズから幾何学をアンタングルするカプセルネットワークを構築します。
論文 参考訳(メタデータ) (2019-12-27T13:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。