論文の概要: Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2106.07020v1
- Date: Sun, 13 Jun 2021 15:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:00:02.329182
- Title: Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた衛星画像のためのNIRスペクトルバンドの生成
- Authors: Svetlana Illarionova, Dmitrii Shadrin, Alexey Trekin, Vladimir
Ignatiev, Ivan Oseledets
- Abstract要約: ディープニューラルネットワークは、画像の着色問題など、人工的なスペクトル情報を生成することができる。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The near-infrared (NIR) spectral range (from 780 to 2500 nm) of the
multispectral remote sensing imagery provides vital information for the
landcover classification, especially concerning the vegetation assessment.
Despite the usefulness of NIR, common RGB is not always accompanied by it.
Modern achievements in image processing via deep neural networks allow
generating artificial spectral information, such as for the image colorization
problem. In this research, we aim to investigate whether this approach can
produce not only visually similar images but also an artificial spectral band
that can improve the performance of computer vision algorithms for solving
remote sensing tasks. We study the generative adversarial network (GAN)
approach in the task of the NIR band generation using just RGB channels of
high-resolution satellite imagery. We evaluate the impact of a generated
channel on the model performance for solving the forest segmentation task. Our
results show an increase in model accuracy when using generated NIR comparing
to the baseline model that uses only RGB (0.947 and 0.914 F1-score
accordingly). Conducted study shows the advantages of generating the extra band
and its implementation in applied challenges reducing the required amount of
labeled data.
- Abstract(参考訳): 多スペクトルリモートセンシング画像の近赤外(NIR)スペクトル範囲(780 - 2500nm)は、特に植生評価に関して、土地被覆分類にとって重要な情報を提供する。
NIRの有用性にもかかわらず、一般的なRGBには必ずしも同伴しない。
ディープニューラルネットワークによる画像処理の最近の成果は、画像のカラー化問題のような人工的なスペクトル情報を生成することができる。
本研究では,この手法が視覚的に類似した画像を生成するだけでなく,コンピュータビジョンアルゴリズムの性能を向上しリモートセンシング課題を解決できる人工スペクトル帯域を生成することができるかを検討することを目的とした。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
森林分断課題を解決するためのモデル性能に生成されたチャネルが与える影響を評価する。
その結果,RGB(0.947,0.914F1スコア)のみを用いたベースラインモデルと比較して,生成NIRを用いた場合のモデル精度が向上した。
本研究は,ラベル付きデータの必要量を削減する応用課題において,余剰帯域の生成とその実装の利点を示す。
関連論文リスト
- Contourlet Refinement Gate Framework for Thermal Spectrum Distribution Regularized Infrared Image Super-Resolution [54.293362972473595]
画像超解像(SR)は、高解像度(HR)画像を低解像度(LR)画像から再構成することを目的としている。
SRタスクに対処する現在のアプローチは、RGB画像の特徴を抽出するか、同様の劣化パターンを仮定するものである。
スペクトル分布の忠実さを保ちつつ、赤外線変調特性を復元するコントゥーレット改質ゲートフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T14:24:03Z) - Towards RGB-NIR Cross-modality Image Registration and Beyond [21.475871648254564]
本稿では,RGB(可視)-NIR(近赤外)クロスモダリティ画像登録の領域に着目した。
まずRGB-NIR画像登録(RGB-NIR-IRegis)ベンチマークを示す。
次に、可視画像と赤外線画像の非一貫性な局所的特徴がモデル性能に与える影響を明らかにするために、いくつかの指標を設計する。
論文 参考訳(メタデータ) (2024-05-30T10:25:50Z) - Near-Infrared and Low-Rank Adaptation of Vision Transformers in Remote Sensing [3.2088888904556123]
近赤外反射率(NIR)を測定するマルチスペクトルセンサを用いて植物の健康状態を動的に監視できる
このような可能性にもかかわらず、高解像度のNIR画像の取得と注釈付けは、ディープニューラルネットワークのトレーニングにおいて重要な課題となっている。
本研究では、RGB領域で事前訓練された視覚変換器(ViT)バックボーンの利点について検討し、NIR領域の下流タスクに対する低ランク適応について検討した。
論文 参考訳(メタデータ) (2024-05-28T07:24:07Z) - NIR-Assisted Image Denoising: A Selective Fusion Approach and A Real-World Benchmark Dataset [53.79524776100983]
近赤外(NIR)画像を活用して、視認可能なRGB画像の復調を支援することで、この問題に対処する可能性を示している。
既存の作品では、NIR情報を効果的に活用して現実のイメージを飾ることに苦戦している。
先進デノナイジングネットワークにプラグイン・アンド・プレイ可能な効率的な選択核融合モジュール(SFM)を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:54:26Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Tensor Factorization for Leveraging Cross-Modal Knowledge in
Data-Constrained Infrared Object Detection [22.60228799622782]
赤外線画像における物体検出のボトルネックは、十分なラベル付きトレーニングデータがないことである。
我々は、RGBモードにおけるモデル性能を保ちながら、RGBモードからオブジェクト検出器をIRモードにスケールするために、RGBモードからの手がかりを活用しようとしている。
まず、これらの因子行列をRGBモードで事前トレーニングし、多くのトレーニングデータが存在すると仮定した後、IRモードでトレーニングするためのトレーニング可能なパラメータをわずかに増やして過度な適合を避ける。
論文 参考訳(メタデータ) (2023-09-28T16:55:52Z) - Visible and infrared self-supervised fusion trained on a single example [1.1188842018827656]
マルチスペクトルイメージングは画像処理とコンピュータビジョンにおいて重要な課題である。
近赤外(NIR)画像融合における可視光(RGB)の問題点は特にタイムリである。
提案されたアプローチは、単一の例で自己監視学習(SSL)によって畳み込みニューラルネットワークをトレーニングすることで、これら2つのチャネルを融合させる。
実験により, 提案手法は, 同様の, より質的, 定量的な多スペクトル核融合結果が得られることを示した。
論文 参考訳(メタデータ) (2023-07-09T05:25:46Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - MobileSal: Extremely Efficient RGB-D Salient Object Detection [62.04876251927581]
本稿では,効率的なRGB-Dサルエント物体検出(SOD)に焦点を当てた新しいネットワーク,メソッド名を提案する。
RGB-D SODのためのモバイルネットワークの特徴表現能力を強化するために,暗黙的深度復元(IDR)手法を提案する。
IDRとCPRを組み込むことで、7つの挑戦的なRGB-D SODデータセット上のsArtメソッドに対してメソッド名が好ましい。
論文 参考訳(メタデータ) (2020-12-24T04:36:42Z) - AdaptiveWeighted Attention Network with Camera Spectral Sensitivity
Prior for Spectral Reconstruction from RGB Images [22.26917280683572]
スペクトル再構成のための適応重み付き注意ネットワーク(AWAN)を提案する。
AWCAおよびPSNLモジュールは、チャネルワイドな特徴応答を再配置するために開発された。
NTIRE 2020 Spectral Reconstruction Challengeでは、クリーントラックで1位、リアルワールドで3位を獲得しました。
論文 参考訳(メタデータ) (2020-05-19T09:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。