論文の概要: Deep Imbalanced Multi-Target Regression: 3D Point Cloud Voxel Content Estimation in Simulated Forests
- arxiv url: http://arxiv.org/abs/2511.12740v1
- Date: Sun, 16 Nov 2025 19:14:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.510351
- Title: Deep Imbalanced Multi-Target Regression: 3D Point Cloud Voxel Content Estimation in Simulated Forests
- Title(参考訳): 深部不均衡多ターゲット回帰:模擬林における3次元クラウドボクセル量推定
- Authors: Amirhossein Hassanzadeh, Bartosz Krawczyk, Michael Saunders, Rob Wible, Keith Krause, Dimah Dera, Jan van Aardt,
- Abstract要約: 本研究は,高レベルなLiDAR点雲データから,低レベルなボクセル内容情報,特にボクセル内におけるターゲット占有率を推定できるかどうかを考察する。
Kernel Point Convolutions (KPConv) を用いた不均衡学習における多目的回帰手法を提案する。
本研究は,森林のニュアンスを捉える際の様々な格子表現の効果を評価するために,ボクセルサイズ(0.25~2m)の感度解析を行った。
- 参考スコア(独自算出の注目度): 4.2900253508857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voxelization is an effective approach to reduce the computational cost of processing Light Detection and Ranging (LiDAR) data, yet it results in a loss of fine-scale structural information. This study explores whether low-level voxel content information, specifically target occupancy percentage within a voxel, can be inferred from high-level voxelized LiDAR point cloud data collected from Digital Imaging and remote Sensing Image Generation (DIRSIG) software. In our study, the targets include bark, leaf, soil, and miscellaneous materials. We propose a multi-target regression approach in the context of imbalanced learning using Kernel Point Convolutions (KPConv). Our research leverages cost-sensitive learning to address class imbalance called density-based relevance (DBR). We employ weighted Mean Saquared Erorr (MSE), Focal Regression (FocalR), and regularization to improve the optimization of KPConv. This study performs a sensitivity analysis on the voxel size (0.25 - 2 meters) to evaluate the effect of various grid representations in capturing the nuances of the forest. This sensitivity analysis reveals that larger voxel sizes (e.g., 2 meters) result in lower errors due to reduced variability, while smaller voxel sizes (e.g., 0.25 or 0.5 meter) exhibit higher errors, particularly within the canopy, where variability is greatest. For bark and leaf targets, error values at smaller voxel size datasets (0.25 and 0.5 meter) were significantly higher than those in larger voxel size datasets (2 meters), highlighting the difficulty in accurately estimating within-canopy voxel content at fine resolutions. This suggests that the choice of voxel size is application-dependent. Our work fills the gap in deep imbalance learning models for multi-target regression and simulated datasets for 3D LiDAR point clouds of forests.
- Abstract(参考訳): ボクセル化は光検出・ランキング(LiDAR)データ処理の計算コストを削減するための効果的な手法であるが、結果として微細構造情報が失われる。
本研究では、Digital Imaging and Remote Sensing Image Generation (DIRSIG)ソフトウェアから収集した高レベルなLiDAR点雲データから、低レベルなボクセル内容情報、具体的にはボクセル内の占有率を推定できるかどうかを検討する。
本研究では, 樹皮, 葉, 土壌, 雑多な材料を対象とする。
本稿では,Kernel Point Convolutions (KPConv) を用いた不均衡学習における多目的回帰手法を提案する。
本研究は,DBR(Science-based Relevance)と呼ばれるクラス不均衡に対処するために,コストセンシティブな学習を活用する。
我々は、KPConvの最適化を改善するために、重み付き平均サクアレッドエロラ(MSE)、FocalR(FocalR)、正規化を採用する。
本研究は,森林のニュアンスを捉える際の様々な格子表現の効果を評価するために,ボクセルサイズ(0.25~2m)の感度解析を行った。
この感度分析により、大きなボクセルサイズ(eg, 2m)は変動率の低下による誤差が小さくなり、小さいボクセルサイズ(eg, 0.25, 0.5m)は、特に変動率が最大である天蓋内において高い誤差を示すことが明らかになった。
樹皮や葉のターゲットでは、より小さなボクセルサイズデータセット(0.25および0.5m)の誤差値は、大きなボクセルサイズデータセット(2m)の誤差よりも有意に高く、微細な解像度でキャノピー内のボクセル含有量を正確に推定することの難しさを浮き彫りにした。
これは、ボクセルサイズの選択がアプリケーションに依存していることを示唆している。
本研究は,森林の3次元LiDAR点雲に対するマルチターゲット回帰とシミュレーションデータセットの深層不均衡学習モデルのギャップを埋めるものである。
関連論文リスト
- Enhancing Monocular Height Estimation via Sparse LiDAR-Guided Correction [25.268217296287688]
合成データに基づいて学習した最先端のMHEモデルについて検討する。
このモデルは,過大評価や過小評価につながる要因である影の手がかりに大きく依存していることが判明した。
本稿では,不完全な大域的LiDAR測定と疎結合な補正パイプラインを提案する。
論文 参考訳(メタデータ) (2025-05-11T08:54:09Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - A Multi-Source Data Fusion-based Semantic Segmentation Model for Relic Landslide Detection [7.095295046737303]
提案したHPCL-NetはLoess Plateau Relic地すべりデータセットを用いて評価した。
提案したHPCL-Netは,mIoUが0.620から0.651に増加し,Landslide IoUが0.334から0.394に改善され,F1scoreが0.501から0.565に向上した既存のモデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2023-08-02T16:11:51Z) - UncLe-SLAM: Uncertainty Learning for Dense Neural SLAM [60.575435353047304]
我々は、高密度ニューラルネットワークの同時局所化とマッピング(SLAM)のための不確実性学習フレームワークを提案する。
本稿では,2次元入力データのみから自己教師付きで学習可能なセンサ不確実性推定のためのオンラインフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T16:26:25Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - VoxelHop: Successive Subspace Learning for ALS Disease Classification
Using Structural MRI [30.469124322749828]
Amyotrophic Lateral Sclerosis (ALS) の正確な分類のためのサブスペース学習モデルである VoxelHop を提案する。
一般的な畳み込みニューラルネットワーク(CNN)アーキテクチャと比較して、VoxelHopはモジュール構造と透過構造を持ち、バックプロパゲーションなしではパラメータが少ない。
我々のフレームワークは、異なる画像モダリティを用いて、他の分類タスクに容易に一般化できる。
論文 参考訳(メタデータ) (2021-01-13T15:25:57Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。