論文の概要: TAS-NIR: A VIS+NIR Dataset for Fine-grained Semantic Segmentation in
Unstructured Outdoor Environments
- arxiv url: http://arxiv.org/abs/2212.09368v1
- Date: Mon, 19 Dec 2022 11:10:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 17:40:06.550725
- Title: TAS-NIR: A VIS+NIR Dataset for Fine-grained Semantic Segmentation in
Unstructured Outdoor Environments
- Title(参考訳): TAS-NIR:非構造屋外環境における微粒なセマンティックセマンティックセグメンテーションのためのVIS+NIRデータセット
- Authors: Peter Mortimer and Hans-Joachim Wuensche
- Abstract要約: 可視色スペクトル(VIS)と近赤外スペクトル(NIR)のペア画像に基づく植生指標がリモートセンシングアプリケーションで広く利用されている。
標準差分植生指数(NDVI)や拡張植生指数(EVI)のような従来の植生指標と、利用可能なVISデータセットで事前トレーニングされた畳み込みニューラルネットワーク(CNN)を組み合わせられる。
非構造屋外環境における意味的注釈付き画像のVIS+NIRデータセットを用いて評価を行った。
- 参考スコア(独自算出の注目度): 4.111899441919165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vegetation Indices based on paired images of the visible color spectrum (VIS)
and near infrared spectrum (NIR) have been widely used in remote sensing
applications. These vegetation indices are extended for their application in
autonomous driving in unstructured outdoor environments. In this domain we can
combine traditional vegetation indices like the Normalized Difference
Vegetation Index (NDVI) and Enhanced Vegetation Index (EVI) with Convolutional
Neural Networks (CNNs) pre-trained on available VIS datasets. By laying a focus
on learning calibrated CNN outputs, we can provide an approach to fuse known
hand-crafted image features with CNN predictions for different domains as well.
The method is evaluated on a VIS+NIR dataset of semantically annotated images
in unstructured outdoor environments. The dataset is available at
mucar3.de/iros2022-ppniv-tas-nir.
- Abstract(参考訳): 可視色スペクトル(VIS)と近赤外スペクトル(NIR)のペア画像に基づく植生指標がリモートセンシングアプリケーションで広く利用されている。
これらの植生指標は、非構造屋外環境における自律走行に適用するために拡張される。
このドメインでは、正規化差分植生指数(NDVI)や拡張植生指数(EVI)のような伝統的な植生指標を、利用可能なVISデータセットで事前トレーニングされた畳み込みニューラルネットワーク(CNN)と組み合わせることができます。
校正されたCNN出力の学習に焦点をあてることで、既知の手作り画像特徴と異なる領域のCNN予測を融合するアプローチを提供することができる。
非構造屋外環境における意味的注釈付き画像のVIS+NIRデータセットを用いて評価を行った。
データセットはmucar3.de/iros2022-ppniv-tas-nirで利用可能である。
関連論文リスト
- Graph Representation Learning for Infrared and Visible Image Fusion [19.756524363404534]
赤外線と可視画像の融合は、単一の融合画像を合成するための補完的な特徴を抽出することを目的としている。
多くの手法では、局所的な特徴を抽出するために畳み込みニューラルネットワーク(CNN)を用いる。
CNNは画像の非局所的自己相似性(NLs)を考慮できない
論文 参考訳(メタデータ) (2023-11-01T04:46:20Z) - VALERIE22 -- A photorealistic, richly metadata annotated dataset of
urban environments [5.439020425819001]
VALERIEツールパイプラインは、ドメイン固有の要素の理解に寄与するために開発された合成データジェネレータである。
VALERIE22データセットは、フォトリアリスティックセンサーシミュレーションを提供するVALERIEプロシージャツールパイプラインで生成された。
データセットは独自のリッチなメタデータセットを提供し、特定のシーンとセマンティックな特徴の抽出を可能にする。
論文 参考訳(メタデータ) (2023-08-18T15:44:45Z) - Physically-Based Face Rendering for NIR-VIS Face Recognition [165.54414962403555]
近赤外(NIR)と可視(VIS)の顔マッチングは、大きなドメインギャップのために困難である。
NIR-VIS対顔画像生成のための新しい手法を提案する。
アイデンティティ特徴学習を容易にするために,IDentityに基づく最大平均離散性(ID-MMD)損失を提案する。
論文 参考訳(メタデータ) (2022-11-11T18:48:16Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks [0.0]
ディープニューラルネットワークは、画像の着色問題など、人工的なスペクトル情報を生成することができる。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
論文 参考訳(メタデータ) (2021-06-13T15:14:57Z) - GANav: Group-wise Attention Network for Classifying Navigable Regions in
Unstructured Outdoor Environments [54.21959527308051]
本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。
本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。
RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。
論文 参考訳(メタデータ) (2021-03-07T02:16:24Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Volumetric Transformer Networks [88.85542905676712]
学習可能なモジュールである容積変換器ネットワーク(VTN)を導入する。
VTNは、中間CNNの空間的およびチャネル的特徴を再設定するために、チャネル回りの歪み場を予測する。
実験の結果,VTNは特徴量の表現力を一貫して向上し,細粒度画像認識とインスタンスレベルの画像検索におけるネットワークの精度が向上することがわかった。
論文 参考訳(メタデータ) (2020-07-18T14:00:12Z) - Effective Data Fusion with Generalized Vegetation Index: Evidence from
Land Cover Segmentation in Agriculture [16.329286069367093]
本稿では,植生関連コンピュータビジョンタスクに対するモデルに依存しないデータ融合手法を提案する。
各種植生指標 (VIs) に触発され, リモートセンシングに広く用いられているVIsを系統的に検討し, 深層ニューラルネットワークに組み込む可能性について検討した。
我々のアプローチでは、植生関連クラスのIoUを0.9-1.3%改善し、mIoU全体の2%をベースラインで継続的に改善しています。
論文 参考訳(メタデータ) (2020-05-07T20:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。