論文の概要: Preliminary analysis of RGB-NIR Image Registration techniques for off-road forestry environments
- arxiv url: http://arxiv.org/abs/2603.11952v1
- Date: Thu, 12 Mar 2026 14:00:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.129184
- Title: Preliminary analysis of RGB-NIR Image Registration techniques for off-road forestry environments
- Title(参考訳): オフロード森林環境におけるRGB-NIR画像登録技術の基礎的検討
- Authors: Pankaj Deoli, Karthik Ranganath, Karsten Berns,
- Abstract要約: RGB-NIR画像の登録は、センサフュージョン、画像強調、オフロード自律において重要な役割を果たす。
6つの異なる構成で訓練されたNeMARは部分的な成功を示しているが、GANの損失不安定性は幾何的整合性を維持する上での課題を示唆している。
MURFは、オフロードの森林データでテストすると、大規模な特徴調整が期待できるが、密集した植生の詳細な詳細に苦慮している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: RGB-NIR image registration plays an important role in sensor-fusion, image enhancement and off-road autonomy. In this work, we evaluate both classical and Deep Learning (DL) based image registration techniques to access their suitability for off-road forestry applications. NeMAR, trained under 6 different configurations, demonstrates partial success however, its GAN loss instability suggests challenges in preserving geometric consistency. MURF, when tested on off-road forestry data shows promising large scale feature alignment during shared information extraction but struggles with fine details in dense vegetation. Even though this is just a preliminary evaluation, our study necessitates further refinements for robust, multi-scale registration for off-road forest applications.
- Abstract(参考訳): RGB-NIR画像の登録は、センサフュージョン、画像強調、オフロード自律において重要な役割を果たす。
本研究では,古典的および深層学習(DL)に基づく画像登録技術を用いて,オフロード林業への適合性を評価する。
6つの異なる構成で訓練されたNeMARは部分的な成功を示しているが、GANの損失不安定性は幾何的整合性を維持する上での課題を示唆している。
MURFは、オフロード林業データでテストすると、共有情報抽出時に大きな特徴アライメントが期待できるが、密集植生の詳細な詳細に苦慮している。
これは予備的な評価にすぎないが、オフロード森林アプリケーションのための堅牢でマルチスケールな登録にはさらなる改良が必要である。
関連論文リスト
- Under-Canopy Terrain Reconstruction in Dense Forests Using RGB Imaging and Neural 3D Reconstruction [0.565453222062465]
従来のRGB画像のみを用いた天蓋のない光写実的地上ビューの再構築のための新しいアプローチを提案する。
提案手法は,最近の3次元再構成法であるNeRF(Neural Radiance Fields)に基づく。
論文 参考訳(メタデータ) (2026-01-30T11:38:56Z) - Data Augmentation and Resolution Enhancement using GANs and Diffusion Models for Tree Segmentation [49.13393683126712]
都市森林は、環境の質を高め、都市における生物多様性を支援する上で重要な役割を担っている。
複雑な地形と異なる衛星センサーやUAV飛行高度による画像解像度の変化により、正確に木を検知することは困難である。
低解像度空中画像の品質を高めるため,GANと拡散モデルとドメイン適応を統合した新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-21T03:57:10Z) - Retinex-RAWMamba: Bridging Demosaicing and Denoising for Low-Light RAW Image Enhancement [71.13353154514418]
低照度画像の強化、特に生ドメインからsRGBドメインへのマッピングのようなクロスドメインタスクは、依然として大きな課題である。
RAWMambaと呼ばれる低照度RAW画像用にカスタマイズされた新しいMambaベースの手法を提案する。
低照度RAW画像の高精細化を図り、復調を施すことにより、高精細化を実現する。
論文 参考訳(メタデータ) (2024-09-11T06:12:03Z) - Plant detection from ultra high resolution remote sensing images: A Semantic Segmentation approach based on fuzzy loss [2.6489824612123716]
超高解像度(UHR)リモートセンシング画像から植物種を識別する課題に取り組む。
我々のアプローチは、ミリレベルの空間分解能を特徴とするRGBリモートセンシングデータセットの導入である。
UHRデータセットと公開データセットの両方で得られた最初の実験結果が提示され、提案手法の妥当性が示された。
論文 参考訳(メタデータ) (2024-08-31T17:40:17Z) - Towards RGB-NIR Cross-modality Image Registration and Beyond [21.475871648254564]
本稿では,RGB(可視)-NIR(近赤外)クロスモダリティ画像登録の領域に着目した。
まずRGB-NIR画像登録(RGB-NIR-IRegis)ベンチマークを示す。
次に、可視画像と赤外線画像の非一貫性な局所的特徴がモデル性能に与える影響を明らかにするために、いくつかの指標を設計する。
論文 参考訳(メタデータ) (2024-05-30T10:25:50Z) - ConKeD++ -- Improving descriptor learning for retinal image registration: A comprehensive study of contrastive losses [6.618504904743609]
本稿では,カラーファンドイメージ登録のための最先端フレームワークであるConKeDの試験と改良を提案する。
ConKeDフレームワークを使用して、複数の損失関数をテストし、フレームワークとアプリケーションドメインに適応します。
私たちの研究は、すべてのデータセットとメトリクスにわたる最先端のパフォーマンスを示しています。
論文 参考訳(メタデータ) (2024-04-25T17:24:35Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。