論文の概要: ACLNet: An Attention and Clustering-based Cloud Segmentation Network
- arxiv url: http://arxiv.org/abs/2207.06277v1
- Date: Wed, 13 Jul 2022 15:22:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-14 12:26:45.148944
- Title: ACLNet: An Attention and Clustering-based Cloud Segmentation Network
- Title(参考訳): ACLNet: 注意とクラスタリングに基づくクラウドセグメンテーションネットワーク
- Authors: Dhruv Makwana and Subhrajit Nag and Onkar Susladkar and Gayatri
Deshmukh and Sai Chandra Teja R and Sparsh Mittal and C Krishna Mohan
- Abstract要約: 地上画像からのクラウドセグメンテーションのための新しい深層学習モデルACLNetを提案する。
ACLNetは、ディープニューラルネットワークと機械学習(ML)アルゴリズムの両方を使用して補完的な特徴を抽出する。
最先端のクラウドセグメンテーションモデルよりも低いエラー率、高いリコール、高いF1スコアを提供する。
- 参考スコア(独自算出の注目度): 2.858388189371451
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a novel deep learning model named ACLNet, for cloud segmentation
from ground images. ACLNet uses both deep neural network and machine learning
(ML) algorithm to extract complementary features. Specifically, it uses
EfficientNet-B0 as the backbone, "`a trous spatial pyramid pooling" (ASPP) to
learn at multiple receptive fields, and "global attention module" (GAM) to
extract finegrained details from the image. ACLNet also uses k-means clustering
to extract cloud boundaries more precisely. ACLNet is effective for both
daytime and nighttime images. It provides lower error rate, higher recall and
higher F1-score than state-of-art cloud segmentation models. The source-code of
ACLNet is available here: https://github.com/ckmvigil/ACLNet.
- Abstract(参考訳): 地上画像からのクラウドセグメンテーションのための新しい深層学習モデルACLNetを提案する。
ACLNetは、ディープニューラルネットワークと機械学習(ML)アルゴリズムの両方を使用して補完的な特徴を抽出する。
具体的には、バックボーンとしてEfficientNet-B0を使用し、複数の受容領域で学習するために"trous spatial pyramid pooling"(ASPP)、画像からきめ細かい詳細を抽出するために"global attention module"(GAM)を学習する。
ACLNetはまた、クラウド境界をより正確に抽出するためにk平均クラスタリングを使用している。
ACLNetは昼夜両方の画像に有効である。
最先端のクラウドセグメンテーションモデルよりも低いエラー率、高いリコール、高いF1スコアを提供する。
ACLNetのソースコードは以下の通りである。
関連論文リスト
- CLIP-based Point Cloud Classification via Point Cloud to Image Translation [19.836264118079573]
Contrastive Vision-Language Pre-Training(CLIP)ベースのポイントクラウド分類モデル(PointCLIP)は、ポイントクラウド分類研究領域に新たな方向性を追加した。
本稿では,PPCITNet(Pretrained Point Cloud to Image Translation Network)を提案する。
論文 参考訳(メタデータ) (2024-08-07T04:50:05Z) - Image Clustering via the Principle of Rate Reduction in the Age of Pretrained Models [37.574691902971296]
本稿では,大規模事前学習モデルの強力な特徴表現を利用した画像クラスタリングパイプラインを提案する。
パイプラインは、CIFAR-10、CIFAR-100、ImageNet-1kなどの標準データセットでうまく動作することを示す。
論文 参考訳(メタデータ) (2023-06-08T15:20:27Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - CP-Net: Contour-Perturbed Reconstruction Network for Self-Supervised
Point Cloud Learning [53.1436669083784]
本稿では,CP-Net(Contour-Perturbed Restruction Network)を提案する。
分類では、ModelNet40(92.5%の精度)とScanObjectNN(87.9%の精度)の完全教師付き手法で競合する結果を得る。
論文 参考訳(メタデータ) (2022-01-20T15:04:12Z) - PointCLIP: Point Cloud Understanding by CLIP [77.02399444893963]
本稿では,CLIP符号化点クラウドと3Dカテゴリテキストのアライメントを行うPointCLIPを提案する。
PointCLIPは、リソースコストとデータレシエーションの低いCLIPによる効果的な3Dポイントクラウド理解のための、有望な代替手段である。
論文 参考訳(メタデータ) (2021-12-04T19:42:40Z) - Supervision Exists Everywhere: A Data Efficient Contrastive
Language-Image Pre-training Paradigm [109.0573737034428]
大規模コントラスト言語-画像事前訓練(CLIP)は、その印象的なゼロショット認識能力と下流タスクへの優れた転送性により、前例のない注目を集めている。
本研究は,この制限を緩和する新たなトレーニングパラダイムであるData efficient CLIP (DeCLIP)を提案する。
画像とテキストのペア間の広範な監視を慎重に活用することにより、De-CLIPは汎用的な視覚的特徴をより効率的に学習できることを実証する。
論文 参考訳(メタデータ) (2021-10-11T12:17:32Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - Efficient 3D Point Cloud Feature Learning for Large-Scale Place
Recognition [21.818744369503197]
視覚的位置認識のためのグローバルディスクリプタを構築するために,効率的なポイントクラウド学習ネットワーク(EPC-Net)を開発した。
提案手法は,フレームあたりのパラメータ,FLOP,ランタイムを低減して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-01-07T05:15:31Z) - Multi-scale Receptive Fields Graph Attention Network for Point Cloud
Classification [35.88116404702807]
MRFGATアーキテクチャはModelNet10とModelNet40データセットでテストされている。
その結果,形状分類作業における最先端性能が得られた。
論文 参考訳(メタデータ) (2020-09-28T13:01:28Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。