論文の概要: Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning
- arxiv url: http://arxiv.org/abs/2012.03439v1
- Date: Mon, 7 Dec 2020 03:44:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 07:21:34.386090
- Title: Hyperspectral Classification Based on Lightweight 3-D-CNN With Transfer
Learning
- Title(参考訳): 伝達学習を用いた軽量3次元CNNに基づくハイパースペクトル分類
- Authors: Haokui Zhang, Ying Li, Yenan Jiang, Peng Wang, Qiang Shen, and Chunhua
Shen
- Abstract要約: 限定サンプルに基づくHSI分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(CNN)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低い。
本モデルでは,HSI分類の競合性能を,いくつかの最先端手法と比較した。
- 参考スコア(独自算出の注目度): 67.40866334083941
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, hyperspectral image (HSI) classification approaches based on deep
learning (DL) models have been proposed and shown promising performance.
However, because of very limited available training samples and massive model
parameters, DL methods may suffer from overfitting. In this paper, we propose
an end-to-end 3-D lightweight convolutional neural network (CNN) (abbreviated
as 3-D-LWNet) for limited samples-based HSI classification. Compared with
conventional 3-D-CNN models, the proposed 3-D-LWNet has a deeper network
structure, less parameters, and lower computation cost, resulting in better
classification performance. To further alleviate the small sample problem, we
also propose two transfer learning strategies: 1) cross-sensor strategy, in
which we pretrain a 3-D model in the source HSI data sets containing a greater
number of labeled samples and then transfer it to the target HSI data sets and
2) cross-modal strategy, in which we pretrain a 3-D model in the 2-D RGB image
data sets containing a large number of samples and then transfer it to the
target HSI data sets. In contrast to previous approaches, we do not impose
restrictions over the source data sets, in which they do not have to be
collected by the same sensors as the target data sets. Experiments on three
public HSI data sets captured by different sensors demonstrate that our model
achieves competitive performance for HSI classification compared to several
state-of-the-art methods
- Abstract(参考訳): 近年,ディープラーニング(DL)モデルに基づくハイパースペクトル画像(HSI)分類手法が提案され,有望な性能を示した。
しかし、非常に限られたトレーニングサンプルと膨大なモデルパラメータのため、DLメソッドは過度な適合に悩まされる可能性がある。
本稿では,サンプルベースhsi分類のためのエンドツーエンドの3次元軽量畳み込みニューラルネットワーク(cnn,3d-lwnet)を提案する。
従来の3D-CNNモデルと比較して,提案した3D-LWNetはネットワーク構造が深く,パラメータが小さく,計算コストも低く,分類性能が向上した。
1) ラベル付きサンプルを多く含むソースhsiデータセットで3次元モデルをプリトレーニングし、その後ターゲットhsiデータセットに転送するクロスセンサ戦略、2) 多数のサンプルを含む2次元rgb画像データセットで3次元モデルをプリトレーニングし、ターゲットhsiデータセットに転送するクロスモーダル戦略、という2つのトランスファー学習戦略を提案する。
従来のアプローチとは対照的に、対象とするデータセットと同じセンサで収集する必要のない、ソースデータセットに対する制限は課しません。
異なるセンサで取得した3つのhsiデータセットを用いた実験により,本モデルがhsi分類の競合性能を達成することを実証した。
関連論文リスト
- Large Generative Model Assisted 3D Semantic Communication [51.17527319441436]
本稿では,GAM-3DSC(Generative AI Model Assisted 3D SC)システムを提案する。
まず,ユーザ要求に基づいて3次元シナリオからキーセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティックなセマンティクスを抽出する。
次に、これらの多視点画像を符号化するための適応意味圧縮モデル(ASCM)を提案する。
最後に、物理チャネルのチャネル状態情報(CSI)を推定・精査するために、条件付き生成逆数ネットワークと拡散モデル支援チャネル推定(GDCE)を設計する。
論文 参考訳(メタデータ) (2024-03-09T03:33:07Z) - Dual-Perspective Knowledge Enrichment for Semi-Supervised 3D Object
Detection [55.210991151015534]
本稿では, DPKE という新しい2次元知識豊か化手法を提案する。
我々のDPKEは、データパースペクティブと機能パースペクティブという2つの観点から、限られたトレーニングデータ、特にラベルなしデータの知識を豊かにしています。
論文 参考訳(メタデータ) (2024-01-10T08:56:07Z) - Uni3D: A Unified Baseline for Multi-dataset 3D Object Detection [34.2238222373818]
現在の3Dオブジェクト検出モデルは、単一のデータセット固有のトレーニングとテストのパラダイムに従っている。
本稿では,複数のデータセットから統合された3次元検出器を訓練する作業について検討する。
単純なデータレベルの修正操作と設計された意味レベルの結合・再結合モジュールを利用するUni3Dを提案する。
論文 参考訳(メタデータ) (2023-03-13T05:54:13Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - On the Importance of 3D Surface Information for Remote Sensing
Classification Tasks [0.0]
RGB画像に3D表面情報を追加すると、建物などの意味的クラスに重要な幾何学的情報を提供することができます。
International Society for Photogrammetry and Remote Sensing (ISPRS) 2D Semantic Labeling contest および米国特殊作戦司令部 (USSOCOM) Urban 3D Challenge の多スペクトル画像を用いて分類性能を評価します。
論文 参考訳(メタデータ) (2021-04-26T19:55:51Z) - 3D-ANAS: 3D Asymmetric Neural Architecture Search for Fast Hyperspectral
Image Classification [5.727964191623458]
ハイパースペクトル画像はスペクトルと空間情報を豊富に含み、土地被覆分類において不定の役割を果たす。
近年,ディープラーニング技術に基づいて,有望な性能を示すHSI分類手法が提案されている。
1)ほとんどのディープラーニングモデルのアーキテクチャは手作業で設計されており、専門知識に依存しており、比較的退屈である。
論文 参考訳(メタデータ) (2021-01-12T04:15:40Z) - LiteDepthwiseNet: An Extreme Lightweight Network for Hyperspectral Image
Classification [9.571458051525768]
本稿では,HSI分類のための新しいネットワークアーキテクチャLiteDepthwiseNetを提案する。
LiteDepthwiseNetは、標準の畳み込みを深さ方向の畳み込みと点方向の畳み込みに分解し、最小限のパラメータで高い分類性能を達成する。
3つのベンチマークハイパースペクトルデータセットによる実験結果から、LiteDepthwiseNetは、非常に少ないパラメータと少ない計算コストで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2020-10-15T13:12:17Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z) - Hyperspectral Classification Based on 3D Asymmetric Inception Network
with Data Fusion Transfer Learning [36.05574127972413]
私たちはまず、3D非対称なインセプションネットワークであるAINetを提供し、過度に適合する問題を克服します。
HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。
論文 参考訳(メタデータ) (2020-02-11T06:37:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。