論文の概要: Single-stream CNN with Learnable Architecture for Multi-source Remote
Sensing Data
- arxiv url: http://arxiv.org/abs/2109.06094v1
- Date: Mon, 13 Sep 2021 16:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:53:28.403293
- Title: Single-stream CNN with Learnable Architecture for Multi-source Remote
Sensing Data
- Title(参考訳): マルチソースリモートセンシングデータのための学習可能なアーキテクチャを用いたシングルストリームCNN
- Authors: Yi Yang, Daoye Zhu, Tengteng Qu, Qiangyu Wang, Fuhu Ren, Chengqi Cheng
- Abstract要約: マルチソースリモートセンシングデータ共同分類のための,深層畳み込みニューラルネットワーク(CNN)に基づく効率的なフレームワークを提案する。
提案手法は,最新のCNNモデルを任意のマルチソースリモートセンシングデータセットに理論的に調整することができる。
実験により,提案したシングルストリームCNNの有効性が示された。
- 参考スコア(独自算出の注目度): 16.810239678639288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an efficient and generalizable framework based on
deep convolutional neural network (CNN) for multi-source remote sensing data
joint classification. While recent methods are mostly based on multi-stream
architectures, we use group convolution to construct equivalent network
architectures efficiently within a single-stream network. We further adopt and
improve dynamic grouping convolution (DGConv) to make group convolution
hyperparameters, and thus the overall network architecture, learnable during
network training. The proposed method therefore can theoretically adjust any
modern CNN models to any multi-source remote sensing data set, and can
potentially avoid sub-optimal solutions caused by manually decided architecture
hyperparameters. In the experiments, the proposed method is applied to ResNet
and UNet, and the adjusted networks are verified on three very diverse
benchmark data sets (i.e., Houston2018 data, Berlin data, and MUUFL data).
Experimental results demonstrate the effectiveness of the proposed
single-stream CNNs, and in particular ResNet18-DGConv improves the
state-of-the-art classification overall accuracy (OA) on HS-SAR Berlin data set
from $62.23\%$ to $68.21\%$. In the experiments we have two interesting
findings. First, using DGConv generally reduces test OA variance. Second,
multi-stream is harmful to model performance if imposed to the first few
layers, but becomes beneficial if applied to deeper layers. Altogether, the
findings imply that multi-stream architecture, instead of being a strictly
necessary component in deep learning models for multi-source remote sensing
data, essentially plays the role of model regularizer. Our code is publicly
available at https://github.com/yyyyangyi/Multi-source-RS-DGConv. We hope our
work can inspire novel research in the future.
- Abstract(参考訳): 本稿では,マルチソースリモートセンシングデータ共同分類のための,深層畳み込みニューラルネットワーク(CNN)に基づく効率的かつ一般化可能なフレームワークを提案する。
近年の手法は主にマルチストリームアーキテクチャに基づいているが,グループ畳み込みを用いて単一ストリームネットワーク内で等価なネットワークアーキテクチャを効率的に構築する。
さらに,動的グループ畳み込み畳み込み(dgconv)を取り入れ改良し,グループ畳み込みハイパーパラメータとネットワーク全体のアーキテクチャをネットワークトレーニング中に学習可能にした。
したがって,提案手法は理論上,任意の現代的なcnnモデルを任意のマルチソースリモートセンシングデータセットに適応させることができ,手作業で決定されるアーキテクチャハイパーパラメータによるサブ最適解を回避できる。
実験では、提案手法をresnetとunetに適用し、3つの非常に多様なベンチマークデータセット(ヒューストン2018データ、ベルリンデータ、muuflデータ)で調整されたネットワークを検証する。
実験結果は、提案したシングルストリームCNNの有効性を示し、特にResNet18-DGConvは、HS-SAR Berlinデータセットにおける最先端の分類総合精度(OA)を62.23\%から68.21\%に改善する。
実験では2つの興味深い結果が得られた。
まず、DGConvを使用すると、一般的にテストOA分散が減少する。
第2に、マルチストリームは、最初の数層に課された場合、モデルパフォーマンスに有害であるが、より深い層に適用すると有益になる。
いずれにせよ,マルチストリームアーキテクチャは,マルチソースリモートセンシングデータのためのディープラーニングモデルにおいて,厳密に必要なコンポーネントではなく,基本的にはモデル正規化器の役割を担っている。
私たちのコードはhttps://github.com/yyyyangyi/Multi-source-RS-DGConv.comで公開されています。
私たちの研究が将来、新しい研究を刺激できることを願っています。
関連論文リスト
- SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Lost Vibration Test Data Recovery Using Convolutional Neural Network: A
Case Study [0.0]
本稿では,アラモサキャニオン橋のCNNアルゴリズムを実構造として提案する。
3つの異なるCNNモデルは、1つと2つの故障したセンサーを予測するものとされた。
畳み込み層を追加することによりモデルの精度が向上した。
論文 参考訳(メタデータ) (2022-04-11T23:24:03Z) - Model Composition: Can Multiple Neural Networks Be Combined into a
Single Network Using Only Unlabeled Data? [6.0945220518329855]
本稿では,ラベルなしデータを用いた複数のトレーニングニューラルネットワークの組み合わせについて検討する。
提案手法は, ラベルのないデータから収集した疑似ラベルの生成, フィルタリング, 集約を利用する。
本手法は任意のアーキテクチャとカテゴリを持つ任意の入力モデルの使用をサポートする。
論文 参考訳(メタデータ) (2021-10-20T04:17:25Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Ensembled sparse-input hierarchical networks for high-dimensional
datasets [8.629912408966145]
サンプルサイズが小さい環境では,高密度ニューラルネットワークが実用的なデータ解析ツールであることを示す。
提案手法は,L1-ペナルティパラメータを2つだけ調整することで,ネットワーク構造を適切に調整する。
EASIER-netは、異なるサイズの実世界のデータセットのコレクションにおいて、データ適応方式でネットワークアーキテクチャを選択し、平均的なオフザシェルフ手法よりも高い予測精度を達成した。
論文 参考訳(メタデータ) (2020-05-11T02:08:53Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Inferring Convolutional Neural Networks' accuracies from their
architectural characterizations [0.0]
CNNのアーキテクチャと性能の関係について検討する。
本稿では,2つのコンピュータビジョンに基づく物理問題において,その特性がネットワークの性能を予測できることを示す。
我々は機械学習モデルを用いて、トレーニング前にネットワークが一定のしきい値精度よりも優れた性能を発揮できるかどうかを予測する。
論文 参考訳(メタデータ) (2020-01-07T16:41:58Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。