論文の概要: DDUNet: Dual Dynamic U-Net for Highly-Efficient Cloud Segmentation
- arxiv url: http://arxiv.org/abs/2501.15385v1
- Date: Sun, 26 Jan 2025 03:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:54:53.646666
- Title: DDUNet: Dual Dynamic U-Net for Highly-Efficient Cloud Segmentation
- Title(参考訳): DDUNet: 高効率クラウドセグメンテーションのためのデュアルダイナミックU-Net
- Authors: Yijie Li, Hewei Wang, Jinfeng Xu, Puzhen Wu, Yunzhong Xiao, Shaofan Wang, Soumyabrata Dev,
- Abstract要約: クラウドセグメンテーションのためのDual Dynamic U-Net(DDUNet)を提案する。
DDUNetはU-Netアーキテクチャに準拠し、動的マルチスケール畳み込み(DMSC)と動的重みとバイアス発生(DWBG)という2つの重要なモジュールを統合する。
- 参考スコア(独自算出の注目度): 9.625982455419306
- License:
- Abstract: Cloud segmentation amounts to separating cloud pixels from non-cloud pixels in an image. Current deep learning methods for cloud segmentation suffer from three issues. (a) Constrain on their receptive field due to the fixed size of the convolution kernel. (b) Lack of robustness towards different scenarios. (c) Requirement of a large number of parameters and limitations for real-time implementation. To address these issues, we propose a Dual Dynamic U-Net (DDUNet) for supervised cloud segmentation. The DDUNet adheres to a U-Net architecture and integrates two crucial modules: the dynamic multi-scale convolution (DMSC), improving merging features under different reception fields, and the dynamic weights and bias generator (DWBG) in classification layers to enhance generalization ability. More importantly, owing to the use of depth-wise convolution, the DDUNet is a lightweight network that can achieve 95.3% accuracy on the SWINySEG dataset with only 0.33M parameters, and achieve superior performance over three different configurations of the SWINySEg dataset in both accuracy and efficiency.
- Abstract(参考訳): クラウドセグメンテーションは、画像中の非クラウドピクセルからクラウドピクセルを分離する。
現在のクラウドセグメンテーションのディープラーニング手法は3つの問題に悩まされている。
(a)畳み込みカーネルの固定サイズによる受容領域の制約。
b) 異なるシナリオに対する堅牢性の欠如。
(c)リアルタイム実装には多数のパラメータと制限が必要である。
これらの課題に対処するため,クラウドセグメンテーションのためのDual Dynamic U-Net(DDUNet)を提案する。
DDUNetはU-Netアーキテクチャに準拠しており、動的マルチスケール畳み込み(DMSC)、異なる受信フィールド下でのマージ機能の改善、そして一般化能力を高めるために分類層の動的重みとバイアスジェネレータ(DWBG)という2つの重要なモジュールを統合している。
さらに重要なのは、ディープワイド畳み込み(deep-wise convolution)の使用により、DDUNetはSWINySEGデータセットの95.3%の精度をわずか0.33Mパラメータで達成し、SWINySEgデータセットの3つの異なる構成よりも精度と効率の両方で優れたパフォーマンスを達成することができる軽量ネットワークである。
関連論文リスト
- DuInNet: Dual-Modality Feature Interaction for Point Cloud Completion [33.023714580710504]
我々は、よりリッチな形状のカテゴリとより多様なテストデータを備えた大規模マルチモーダルポイントクラウド補完ベンチマークModelNet-MPCにコントリビュートする。
完全教師付きポイントクラウド完了タスクに加えて、完了の認知とゼロショット学習完了を含む2つのタスクが提案されている。
ShapeNet-ViPCとModelNet-MPCベンチマークの実験により、DuInNetは最先端の手法よりも全ての完了タスクにおいて優越性、堅牢性、転送能力を示すことが示された。
論文 参考訳(メタデータ) (2024-07-10T05:19:40Z) - PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - CalibNet: Dual-branch Cross-modal Calibration for RGB-D Salient Instance Segmentation [88.50067783122559]
CalibNetは3つの単純なモジュール、動的インタラクティブカーネル(DIK)と重量共有融合(WSF)で構成されている。
実験の結果、CalibNetは、COME15K-Nテストセット上で320*480の入力サイズを持つ58.0% APという有望な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-16T16:49:59Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking [54.58791377183574]
1)DRENet(Dense Reception Expanded)モジュールで,原サイズの密集した特徴マップをマルチスケールのコンテキスト情報で抽出し,2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに変換する。
R-MVSNetのメモリ消費は19.4%しかかからないが,本手法は最先端の手法と競合する性能を示し,メモリ消費を劇的に削減する。
論文 参考訳(メタデータ) (2020-07-21T14:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。