論文の概要: APNet: Urban-level Scene Segmentation of Aerial Images and Point Clouds
- arxiv url: http://arxiv.org/abs/2309.17162v1
- Date: Fri, 29 Sep 2023 11:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:14:17.516126
- Title: APNet: Urban-level Scene Segmentation of Aerial Images and Point Clouds
- Title(参考訳): APNet:空中画像と点雲の都市レベルのシーンセグメンテーション
- Authors: Weijie Wei and Martin R. Oswald and Fatemeh Karimi Nejadasl and Theo
Gevers
- Abstract要約: 都市景観の点雲のセマンティックセグメンテーション手法に着目する。
APNetは、ポイントクラウドブランチと空中イメージブランチの2つのブランチに分けられる。
我々は,各分岐の結果を組み合わせるために学習した幾何対応の融合モジュールを用いている。
実験により、融合出力は個々のネットワーク分岐よりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 24.035845739530043
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we focus on semantic segmentation method for point clouds of
urban scenes. Our fundamental concept revolves around the collaborative
utilization of diverse scene representations to benefit from different context
information and network architectures. To this end, the proposed network
architecture, called APNet, is split into two branches: a point cloud branch
and an aerial image branch which input is generated from a point cloud. To
leverage the different properties of each branch, we employ a geometry-aware
fusion module that is learned to combine the results of each branch. Additional
separate losses for each branch avoid that one branch dominates the results,
ensure the best performance for each branch individually and explicitly define
the input domain of the fusion network assuring it only performs data fusion.
Our experiments demonstrate that the fusion output consistently outperforms the
individual network branches and that APNet achieves state-of-the-art
performance of 65.2 mIoU on the SensatUrban dataset. Upon acceptance, the
source code will be made accessible.
- Abstract(参考訳): 本稿では,都市景観の点雲に対する意味セグメンテーション手法に着目した。
私たちの基本的な概念は、異なるコンテキスト情報やネットワークアーキテクチャの恩恵を受けるために、多様なシーン表現を協調的に活用することです。
この目的のために、提案されたネットワークアーキテクチャはapnetと呼ばれ、ポイントクラウドブランチとポイントクラウドから入力される空中イメージブランチの2つのブランチに分割される。
各ブランチの異なる特性を活用するために,各ブランチの結果を組み合わせるために学習した幾何認識融合モジュールを用いる。
各ブランチに対する別の損失は、ひとつのブランチが結果を支配することを避け、各ブランチの最高のパフォーマンスを個別に保証し、データフュージョンのみを実行することを保証する融合ネットワークの入力ドメインを明示的に定義する。
実験の結果, 融合出力は個々のネットワーク分岐より一貫して優れており, センサットUrbanデータセット上でのAPNetによる65.2 mIoUの最先端性能を実現していることがわかった。
受け入れると、ソースコードがアクセスできるようになる。
関連論文リスト
- Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - CasFusionNet: A Cascaded Network for Point Cloud Semantic Scene
Completion by Dense Feature Fusion [14.34344002500153]
本稿では,高密度特徴融合によるポイントクラウドセマンティックシーン補完のための新しいカスケードネットワークCasFusionNetを提案する。
上記の3つのモジュールを,各レベルでの高密度な特徴融合によって整理し,合計4つのレベルをカスケードし,各レベル間の特徴融合を十分な情報利用に活用する。
論文 参考訳(メタデータ) (2022-11-24T16:36:42Z) - GFNet: Geometric Flow Network for 3D Point Cloud Semantic Segmentation [91.15865862160088]
本稿では,異なるビュー間の幾何対応性を検討するための幾何フローネットワーク (GFNet) を提案する。
具体的には、異なる視点にまたがって補完情報を双方向に整列し、伝播する新しい幾何フローモジュール(GFM)を考案する。
論文 参考訳(メタデータ) (2022-07-06T11:48:08Z) - Multi-scale Network with Attentional Multi-resolution Fusion for Point
Cloud Semantic Segmentation [2.964101313270572]
ローカルおよびグローバルなマルチスケール情報を集約する総合的なポイントクラウドセマンティックセマンティックセマンティクスネットワークを提案する。
点の局所的な形状を効果的に学習するアングル相関点畳み込みモジュールを提案する。
第3に、2Dイメージビジョンタスクのパフォーマンスに優れたHRNetにインスパイアされた私たちは、ポイントクラウド用にカスタマイズされたHRNetを構築し、グローバルなマルチスケールコンテキストを学習します。
論文 参考訳(メタデータ) (2022-06-27T21:03:33Z) - A Unified Transformer Framework for Group-based Segmentation:
Co-Segmentation, Co-Saliency Detection and Video Salient Object Detection [59.21990697929617]
人間は、ダイナミックな世界に住んでいるので、画像のグループやビデオのフレームから学ぶことによってオブジェクトをマイニングする傾向があります。
従来のアプローチでは、類似したタスクで異なるネットワークを個別に設計するが、互いに適用するのは困難である。
UFO(UnifiedObject Framework for Co-Object Framework)という,これらの問題に対処するための統一フレームワークを導入する。
論文 参考訳(メタデータ) (2022-03-09T13:35:19Z) - CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning [53.1436669083784]
本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
論文 参考訳(メタデータ) (2022-01-20T15:04:12Z) - Fast Point Voxel Convolution Neural Network with Selective Feature
Fusion for Point Cloud Semantic Segmentation [7.557684072809662]
本稿では,ポイントクラウド解析のための軽量畳み込みニューラルネットワークを提案する。
本手法はサンプリングなしで全点集合上で動作し,効率よく性能を向上する。
論文 参考訳(メタデータ) (2021-09-23T19:39:01Z) - FPS-Net: A Convolutional Fusion Network for Large-Scale LiDAR Point
Cloud Segmentation [30.736361776703568]
LiDARポイントクラウドに基づくシーン理解は、自動運転車が安全に運転するのに不可欠なタスクです。
既存のほとんどのメソッドは、情報容量を増やすために、画像チャネルとして異なるポイント属性/モダリティを積み重ねる。
fps-netは,最適なポイントクラウドセグメンテーションのために,投影画像チャネル間の一意性と不一致を生かす畳み込み型融合ネットワークである。
論文 参考訳(メタデータ) (2021-03-01T04:08:28Z) - Auto-Panoptic: Cooperative Multi-Component Architecture Search for
Panoptic Segmentation [144.50154657257605]
本稿では、バックボーン、セグメンテーションブランチ、フィーチャーフュージョンモジュールを含むすべての主要コンポーネントを同時に検索する効率的なフレームワークを提案する。
検索したアーキテクチャ、すなわちAuto-Panopticは、挑戦的なCOCOとADE20Kベンチマークに関する新しい最先端技術を実現します。
論文 参考訳(メタデータ) (2020-10-30T08:34:35Z) - Cascaded Refinement Network for Point Cloud Completion with
Self-supervision [74.80746431691938]
形状整形のための2分岐ネットワークを提案する。
第1分枝は、完全なオブジェクトを合成するためのカスケード形状補完サブネットワークである。
第2のブランチは、元の部分入力を再構築する自動エンコーダである。
論文 参考訳(メタデータ) (2020-10-17T04:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。