論文の概要: Reflectivity Is All You Need!: Advancing LiDAR Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2403.13188v1
- Date: Tue, 19 Mar 2024 22:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:37:24.112807
- Title: Reflectivity Is All You Need!: Advancing LiDAR Semantic Segmentation
- Title(参考訳): LiDARセマンティックセグメンテーションの改善
- Authors: Kasi Viswanath, Peng Jiang, Srikanth Saripalli,
- Abstract要約: 本稿では、学習に基づくLiDARセマンティックセマンティックセグメンテーションフレームワークにおいて、校正強度を利用する利点について検討する。
本研究は,モデルが強度の校正を学べることによって,性能が向上することを示す。
特に, 反射率への変換は, オフロードシナリオの生強度を用いた場合と比較して, 平均対合(mIoU)の平均断面積を4%増加させる。
- 参考スコア(独自算出の注目度): 11.684330305297523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR semantic segmentation frameworks predominantly leverage geometry-based features to differentiate objects within a scan. While these methods excel in scenarios with clear boundaries and distinct shapes, their performance declines in environments where boundaries are blurred, particularly in off-road contexts. To address this, recent strides in 3D segmentation algorithms have focused on harnessing raw LiDAR intensity measurements to improve prediction accuracy. Despite these efforts, current learning-based models struggle to correlate the intricate connections between raw intensity and factors such as distance, incidence angle, material reflectivity, and atmospheric conditions. Building upon our prior work, this paper delves into the advantages of employing calibrated intensity (also referred to as reflectivity) within learning-based LiDAR semantic segmentation frameworks. We initially establish that incorporating reflectivity as an input enhances the existing LiDAR semantic segmentation model. Furthermore, we present findings that enable the model to learn to calibrate intensity can boost its performance. Through extensive experimentation on the off-road dataset Rellis-3D, we demonstrate notable improvements. Specifically, converting intensity to reflectivity results in a 4% increase in mean Intersection over Union (mIoU) when compared to using raw intensity in Off-road scenarios. Additionally, we also investigate the possible benefits of using calibrated intensity in semantic segmentation in urban environments (SemanticKITTI) and cross-sensor domain adaptation.
- Abstract(参考訳): LiDARセマンティックセグメンテーションフレームワークは、主に幾何学に基づく特徴を活用してスキャン内のオブジェクトを識別する。
これらの手法は明確な境界と異なる形状のシナリオで優れているが、特にオフロード環境では境界がぼやけている環境では性能が低下する。
これを解決するために、最近の3次元分割アルゴリズムは、予測精度を向上させるために生のLiDAR強度測定を活用することに重点を置いている。
これらの努力にもかかわらず、現在の学習モデルでは、生の強度と距離、入射角、物質反射率、大気条件などの要因の間の複雑な関係の相関に苦慮している。
本稿では,従来の研究に基づいて,LiDARセマンティックセマンティックセグメンテーションフレームワークに校正強度(リフレクティビティとも呼ばれる)を用いることの利点を考察する。
我々はまず、リフレクティビティを入力として組み込むことで、既存のLiDARセマンティックセグメンテーションモデルを強化することを確立した。
さらに,モデルが強度の校正を学べることによって,性能が向上することを示す。
オフロードデータセットRellis-3Dの広範な実験により、顕著な改善が示された。
特に, 反射率への変換は, オフロードシナリオの生強度を用いた場合と比較して, 平均対合(mIoU)の平均断面積を4%増加させる。
さらに,都市環境(SemanticKITTI)におけるセマンティックセグメンテーションの校正強度とクロスセンサー領域適応の利点についても検討した。
関連論文リスト
- RAPiD-Seg: Range-Aware Pointwise Distance Distribution Networks for 3D LiDAR Segmentation [22.877384781595556]
本稿では,Range-Aware Pointwise Distance Distribution(RAPiD)と関連するRAPiD-Segアーキテクチャを紹介する。
RAPiDの特徴は剛性変換不変性を示し、点密度の変動に効果的に適応する。
本稿では,高次元特徴を管理可能なボクセル・ワイド・埋め込みにエンコードする,新しいクラス認識型埋め込み目的を持つ2次元オートエンコーダ構造を提案する。
論文 参考訳(メタデータ) (2024-07-14T10:59:34Z) - Investigating the Semantic Robustness of CLIP-based Zero-Shot Anomaly Segmentation [2.722220619798093]
3つの意味変換を用いて実験データを摂動することで,ゼロショット異常セグメンテーションアルゴリズムの性能について検討する。
モデルアーキテクチャや学習目標に関係なく、3つのCLIPバックボーンでパフォーマンスが一貫して低下していることが分かりました。
論文 参考訳(メタデータ) (2024-05-13T17:47:08Z) - Off-Road LiDAR Intensity Based Semantic Segmentation [11.684330305297523]
学習ベースのLiDARセマンティックセグメンテーションは、機械学習技術を使用して、LiDARポイントクラウド内のオブジェクトを自動的に分類する。
オフロード環境におけるオブジェクトセグメンテーションを強化するために,LiDAR強度パラメータを活用することでこの問題に対処する。
提案手法をRELLIS-3Dデータセットで評価し,mIoUを改良した「パドル」と「グラス」の予備解析として有望な結果を得た。
論文 参考訳(メタデータ) (2024-01-02T21:27:43Z) - RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering
Assisted Distillation [50.35403070279804]
マルチビュー画像を用いた3次元シーンの占有状況とセマンティクスを推定することを目的とした,新たな課題である3D占有予測手法を提案する。
本稿では,RandOccを提案する。Rendering Assisted distillation paradigm for 3D Occupancy prediction。
論文 参考訳(メタデータ) (2023-12-19T03:39:56Z) - 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - Attention-Guided Lidar Segmentation and Odometry Using Image-to-Point Cloud Saliency Transfer [6.058427379240697]
SalLiDARは3次元セマンティックセマンティックセマンティクスモデルであり、セマンティクス性能を向上させるために、サリエンシ情報を統合する。
SalLONetは、SalLiDARのセマンティックおよびサリエンシ予測を用いて、より優れたオドメトリー推定を実現する、自己監督型サリエンシ誘導型LiDARオドメトリーネットワークである。
論文 参考訳(メタデータ) (2023-08-28T06:22:10Z) - ARHNet: Adaptive Region Harmonization for Lesion-aware Augmentation to
Improve Segmentation Performance [61.04246102067351]
本研究では,合成画像をよりリアルに見せるために,前景調和フレームワーク(ARHNet)を提案する。
実画像と合成画像を用いたセグメンテーション性能の向上に本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-02T10:39:29Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。