論文の概要: Benchmarking individual tree segmentation using multispectral airborne laser scanning data: the FGI-EMIT dataset
- arxiv url: http://arxiv.org/abs/2511.00653v1
- Date: Sat, 01 Nov 2025 18:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.879393
- Title: Benchmarking individual tree segmentation using multispectral airborne laser scanning data: the FGI-EMIT dataset
- Title(参考訳): FGI-EMITデータセットを用いた多スペクトルレーザー走査データを用いた個々の木分割のベンチマーク
- Authors: Lassi Ruoppa, Tarmo Hietala, Verneri Seppänen, Josef Taher, Teemu Hakala, Xiaowei Yu, Antero Kukko, Harri Kaartinen, Juha Hyyppä,
- Abstract要約: 本研究では,FGI-EMITについて紹介する。FGI-EMITは,個別木分割のための大規模空中レーザスキャンベンチマークデータセットである。
データセットは、1,561本の注釈付き木で構成され、特に小さな下層木に焦点を当てている。
- 参考スコア(独自算出の注目度): 4.560913422651555
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Individual tree segmentation (ITS) from LiDAR point clouds is fundamental for applications such as forest inventory, carbon monitoring and biodiversity assessment. Traditionally, ITS has been achieved with unsupervised geometry-based algorithms, while more recent advances have shifted toward supervised deep learning (DL). In the past, progress in method development was hindered by the lack of large-scale benchmark datasets, and the availability of novel data formats, particularly multispectral (MS) LiDAR, remains limited to this day, despite evidence that MS reflectance can improve the accuracy of ITS. This study introduces FGI-EMIT, the first large-scale MS airborne laser scanning benchmark dataset for ITS. Captured at wavelengths 532, 905, and 1,550 nm, the dataset consists of 1,561 manually annotated trees, with a particular focus on small understory trees. Using FGI-EMIT, we comprehensively benchmarked four conventional unsupervised algorithms and four supervised DL approaches. Hyperparameters of unsupervised methods were optimized using a Bayesian approach, while DL models were trained from scratch. Among the unsupervised methods, Treeiso achieved the highest test set F1-score of 52.7%. The DL approaches performed significantly better overall, with the best model, ForestFormer3D, attaining an F1-score of 73.3%. The most significant difference was observed in understory trees, where ForestFormer3D exceeded Treeiso by 25.9 percentage points. An ablation study demonstrated that current DL-based approaches generally fail to leverage MS reflectance information when it is provided as additional input features, although single channel reflectance can improve accuracy marginally, especially for understory trees. A performance analysis across point densities further showed that DL methods consistently remain superior to unsupervised algorithms, even at densities as low as 10 points/m$^2$.
- Abstract(参考訳): LiDAR点雲からの個々の木分割(ITS)は、森林在庫、炭素モニタリング、生物多様性評価などの応用に不可欠である。
従来、ITSは教師なし幾何学に基づくアルゴリズムで達成されてきたが、近年の進歩は教師付きディープラーニング(DL)へと移行している。
従来,MSリフレクタンスがITSの精度を向上させる証拠があるにも関わらず,大規模ベンチマークデータセットの欠如によりメソッド開発の進展が妨げられ,新しいデータフォーマット,特にマルチスペクトル(MS) LiDARが現在まで限られている。
本研究は、ITSのための大規模なMS空中レーザスキャンベンチマークデータセットであるFGI-EMITを紹介する。
532、905、および1,550nmの波長で捕獲されたデータセットは、1,561本の注釈付き木で構成され、特に小さな下層木に焦点を当てている。
FGI-EMITを用いて、4つの従来の教師なしアルゴリズムと4つの教師なしDLアプローチを総合的にベンチマークした。
教師なし手法のハイパーパラメータはベイズ的手法を用いて最適化され、DLモデルはゼロから訓練された。
教師なしの手法の中で、Treeisoは52.7%という最高テストセットF1スコアを達成した。
DLアプローチは、最高のモデルであるフォレストフォーマー3Dで、F1スコアは73.3%に達した。
最も顕著な違いは、フォレストホルマー3Dがツリーソを25.9%以上上回る下層樹で観測された。
アブレーション研究により、現在のDLベースのアプローチは、特に下層樹において、単一チャネル反射率が精度を極端に向上できるにもかかわらず、追加入力機能として提供される際にMS反射情報を活用できないことが実証された。
さらに、点密度による性能解析により、DL法は10点/m$^2$という低密度でも、教師なしアルゴリズムよりも一貫して優れていることが示された。
関連論文リスト
- ReasonFlux-PRM: Trajectory-Aware PRMs for Long Chain-of-Thought Reasoning in LLMs [75.72672339168092]
本稿では,新しいトラジェクトリ対応PRMであるReasonFlux-PRMを紹介し,トラジェクトリ応答型推論トレースの評価を行う。
ReasonFlux-PRMはステップレベルとトラジェクトリレベルの両方の監視機能を備えており、構造化された連鎖データと整合した微粒な報酬割り当てを可能にする。
得られたReasonFlux-PRM-7Bは、教師付き微調整で平均12.1%、強化学習で4.5%、テスト時間スケーリングで6.3%向上した。
論文 参考訳(メタデータ) (2025-06-23T17:59:02Z) - EfficientLLM: Efficiency in Large Language Models [64.3537131208038]
大規模言語モデル(LLM)は大きな進歩を導いてきたが、その増加とコンテキストウィンドウは計算、エネルギー、金銭的コストを禁止している。
本稿では,新しいベンチマークであるEfficientLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-20T02:27:08Z) - Multispectral airborne laser scanning for tree species classification: a benchmark of machine learning and deep learning algorithms [3.9167717582896793]
マルチスペクトル空中レーザースキャン(ALS)は、自動点クラウド処理とツリーセグメンテーションにおいて有望であることを示す。
本研究は,木種分類のための機械学習およびディープラーニング手法のベンチマークを行うことにより,これらのギャップに対処する。
論文 参考訳(メタデータ) (2025-04-19T16:03:49Z) - Manual Labelling Artificially Inflates Deep Learning-Based Segmentation Performance on RGB Images of Closed Canopy: Validation Using TLS [0.0]
フィールドベースの森林在庫に依存する伝統的な方法は、労働集約的であり、空間的範囲に限られている。
我々は、地上レーザー走査(TLS)データから、ボレアルと地中海の森林のドローン画像の高忠実性検証ラベルを生成する。
我々は、広く使われている2つのディープラーニングITCセグメンテーションモデル、DeepForest (RetinaNet) と Detectree2 (マスクR-CNN) の性能を評価する。
両モデルとも, 樹冠木に制限された場合でも, 厳密なIoUしきい値において, 局所化精度が極めて低かった。
論文 参考訳(メタデータ) (2025-03-18T14:09:00Z) - Unsupervised deep learning for semantic segmentation of multispectral LiDAR forest point clouds [1.6633665061166945]
本研究では,高密度レーザー走査点雲の葉木分離のための教師なし深層学習手法を提案する。
GrowSP-ForMS の平均精度は84.3%、mIoU平均交点は69.6%であった。
論文 参考訳(メタデータ) (2025-02-10T07:58:49Z) - SOOD++: Leveraging Unlabeled Data to Boost Oriented Object Detection [68.18620488664187]
本稿では,SOOD++ と呼ばれる簡易かつ効果的な半教師付きオブジェクト指向検出手法を提案する。
具体的には、空中画像からの物体は、通常任意の向き、小さなスケール、密度分布を持つ。
各種ラベル付き環境下での多目的対象物に対する大規模な実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-01T07:03:51Z) - SegmentAnyTree: A sensor and platform agnostic deep learning model for
tree segmentation using laser scanning data [15.438892555484616]
本研究は,様々なレーザー走査型に適用可能な深層学習モデルを用いて,ライダーデータにおけるツリークラウン(ITC)セグメンテーションを推し進める。
3次元森林景観解析におけるデータ特性の相違による伝達可能性の課題に対処する。
PointGroupアーキテクチャに基づくこのモデルは、セマンティックとインスタンスセグメンテーションのための別々のヘッドを持つ3D CNNである。
論文 参考訳(メタデータ) (2024-01-28T19:47:17Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。