論文の概要: Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion
- arxiv url: http://arxiv.org/abs/2103.07074v1
- Date: Fri, 12 Mar 2021 04:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:23:21.980422
- Title: Semantic Segmentation for Real Point Cloud Scenes via Bilateral
Augmentation and Adaptive Fusion
- Title(参考訳): バイラテラル拡張と適応核融合による実点雲シーンのセマンティックセグメンテーション
- Authors: Shi Qiu, Saeed Anwar and Nick Barnes
- Abstract要約: 現実世界の複雑な環境を直感的に捉えることができますが、3Dデータの生の性質のため、機械認識にとって非常に困難です。
我々は、現実に収集された大規模クラウドデータに対して、重要な視覚的タスク、セマンティックセグメンテーションに集中する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
- 参考スコア(独自算出の注目度): 38.05362492645094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the prominence of current 3D sensors, a fine-grained analysis on the
basic point cloud data is worthy of further investigation. Particularly, real
point cloud scenes can intuitively capture complex surroundings in the real
world, but due to 3D data's raw nature, it is very challenging for machine
perception. In this work, we concentrate on the essential visual task, semantic
segmentation, for large-scale point cloud data collected in reality. On the one
hand, to reduce the ambiguity in nearby points, we augment their local context
by fully utilizing both geometric and semantic features in a bilateral
structure. On the other hand, we comprehensively interpret the distinctness of
the points from multiple resolutions and represent the feature map following an
adaptive fusion method at point-level for accurate semantic segmentation.
Further, we provide specific ablation studies and intuitive visualizations to
validate our key modules. By comparing with state-of-the-art networks on three
different benchmarks, we demonstrate the effectiveness of our network.
- Abstract(参考訳): 現在の3Dセンサーの優位性を考えると、基本的なクラウドデータのきめ細かい分析はさらなる調査に値する。
特に、現実のクラウドシーンは実世界の複雑な環境を直感的に捉えることができるが、3Dデータの生の特性のため、マシン認識は非常に困難である。
本研究では,現実に収集された大規模ポイントクラウドデータに対して,視覚的タスクであるセマンティックセグメンテーションに注目する。
一方,近接点の曖昧さを低減すべく,2つの構造における幾何学的特徴と意味的特徴を十分に活用することにより,局所的文脈を増強する。
一方,複数の解像度からの点の識別性を包括的に解釈し,正確な意味セグメンテーションのための点レベルで適応融合法に従って特徴マップを表現する。
さらに,重要なモジュールを検証するために,アブレーション研究と直感的な可視化を提供する。
3つのベンチマークで最先端のネットワークと比較することにより,ネットワークの有効性を実証する。
関連論文リスト
- Unsupervised Non-Rigid Point Cloud Matching through Large Vision Models [1.3030624795284795]
非剛点クラウドマッチングのための学習ベースのフレームワークを提案する。
重要な洞察は、大きな視覚モデル(LVM)から派生した意味的特徴を統合することである。
本フレームワークは,局所的な地形間の自己相似性から生じるあいまいさに対処するために,意味的特徴に含まれる構造情報を効果的に活用する。
論文 参考訳(メタデータ) (2024-08-16T07:02:19Z) - Cross-Modal Information-Guided Network using Contrastive Learning for
Point Cloud Registration [17.420425069785946]
本稿では,ポイントクラウド登録のための新しいCross-Modal Information-Guided Network(CMIGNet)を提案する。
まず,点雲から投影された画像を取り込んで,アテンション機構を用いてモーダルな特徴を融合する。
コントラスト学習戦略は2つあり、すなわち、コントラスト学習とクロスモーダルコントラスト学習が重なり合う。
論文 参考訳(メタデータ) (2023-11-02T12:56:47Z) - Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - Point2Vec for Self-Supervised Representation Learning on Point Clouds [66.53955515020053]
Data2vecをポイントクラウド領域に拡張し、いくつかのダウンストリームタスクで推奨される結果を報告します。
我々は、ポイントクラウド上でData2vecライクな事前トレーニングの可能性を解放するpoint2vecを提案する。
論文 参考訳(メタデータ) (2023-03-29T10:08:29Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - PnP-3D: A Plug-and-Play for 3D Point Clouds [38.05362492645094]
本稿では,既存ネットワークのポイントクラウドデータ解析における有効性を改善するために,プラグイン・アンド・プレイモジュール -3D を提案する。
アプローチを徹底的に評価するために,3つの標準的なクラウド分析タスクについて実験を行った。
本研究は,最先端の成果の達成に加えて,我々のアプローチのメリットを実証する包括的研究を提案する。
論文 参考訳(メタデータ) (2021-08-16T23:59:43Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point
Clouds of Wild Scenes [36.07733308424772]
3Dセグメンテーションラベルの欠如は、効率的な点雲セグメンテーションの主な障害の1つである。
本稿では,2D のみを監督する点群における大規模セマンティックシーンセグメンテーションのための,新しいディープグラフ畳み込みネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T23:02:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。