論文の概要: Automated classification of natural habitats using ground-level imagery
- arxiv url: http://arxiv.org/abs/2508.19314v1
- Date: Tue, 26 Aug 2025 10:57:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.371529
- Title: Automated classification of natural habitats using ground-level imagery
- Title(参考訳): 地上画像を用いた自然生息地の自動分類
- Authors: Mahdis Tourian, Sareh Rowlands, Remy Vandaele, Max Fancourt, Rebecca Mein, Hywel T. P. Williams,
- Abstract要約: 地中画像のみに基づく生息地分類手法(写真)を提案する。
本研究は, 地表面の生息地写真に深層学習を適用した分類システムを構築し, それぞれの画像を「リビング・イングランド」フレームワークで定義された18のクラスに分類する。
5倍のクロスバリデーションを用いて,F1スコアとF1スコアの精度を比較検討した。
- 参考スコア(独自算出の注目度): 1.9646275424931439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate classification of terrestrial habitats is critical for biodiversity conservation, ecological monitoring, and land-use planning. Several habitat classification schemes are in use, typically based on analysis of satellite imagery with validation by field ecologists. Here we present a methodology for classification of habitats based solely on ground-level imagery (photographs), offering improved validation and the ability to classify habitats at scale (for example using citizen-science imagery). In collaboration with Natural England, a public sector organisation responsible for nature conservation in England, this study develops a classification system that applies deep learning to ground-level habitat photographs, categorising each image into one of 18 classes defined by the 'Living England' framework. Images were pre-processed using resizing, normalisation, and augmentation; re-sampling was used to balance classes in the training data and enhance model robustness. We developed and fine-tuned a DeepLabV3-ResNet101 classifier to assign a habitat class label to each photograph. Using five-fold cross-validation, the model demonstrated strong overall performance across 18 habitat classes, with accuracy and F1-scores varying between classes. Across all folds, the model achieved a mean F1-score of 0.61, with visually distinct habitats such as Bare Soil, Silt and Peat (BSSP) and Bare Sand (BS) reaching values above 0.90, and mixed or ambiguous classes scoring lower. These findings demonstrate the potential of this approach for ecological monitoring. Ground-level imagery is readily obtained, and accurate computational methods for habitat classification based on such data have many potential applications. To support use by practitioners, we also provide a simple web application that classifies uploaded images using our model.
- Abstract(参考訳): 地球環境の正確な分類は、生物多様性の保全、生態モニタリング、土地利用計画において重要である。
いくつかの生息地分類スキームが使われており、典型的には衛星画像の分析とフィールド生態学者による検証に基づいている。
本稿では,地中画像(写真)のみに基づく生息地分類手法を提案する。
本研究は,イングランドの自然保護を担っている公共団体であるナチュラル・イングランドと共同で,地表面の生息地写真に深層学習を適用した分類システムを開発し,各画像を「リヴィング・イングランド」フレームワークで定義された18のクラスに分類する。
イメージは、リサイズ、正規化、拡張を使用して前処理され、再サンプリングはトレーニングデータのクラスのバランスとモデルの堅牢性を高めるために使用された。
DeepLabV3-ResNet101分類器を開発した。
5倍のクロスバリデーションを用いて,F1スコアとF1スコアの精度を比較検討した。
全ての折り目において、このモデルは平均F1スコア0.61を達成し、バール土壌、シルト・アンド・ピート(BSSP)、バール砂(BS)といった視覚的に異なる生息地が0.90以上の値に達し、混合または曖昧なクラスが低い。
これらの知見は、生態モニタリングにおけるこのアプローチの可能性を示している。
地上レベルの画像は容易に取得でき、そのようなデータに基づく生息地分類の正確な計算手法には、多くの潜在的な応用がある。
実践者による利用を支援するため,我々のモデルを用いてアップロードされた画像を分類するシンプルなWebアプリケーションも提供する。
関連論文リスト
- Continental scale habitat modelling with artificial intelligence and multimodal earth observation [0.0]
ハビタットは、生物多様性を支え、人への自然の貢献を維持する、無生物の状態と生物物理学構造を統合している。
現在の地図はしばしば、いくつかの相互排他的生息地をモデル化する必要があるため、主題的あるいは空間的解決において不足している。
本稿では、高分解能リモートセンシング(RS)データと人工知能(AI)ツールが、広範囲にわたる生息地分類をいかに改善できるかを評価する。
論文 参考訳(メタデータ) (2025-07-13T18:11:26Z) - Habitat Classification from Ground-Level Imagery Using Deep Neural Networks [1.3408365072149797]
本研究では、現在最先端の深層ニューラルネットワークアーキテクチャを地上レベルの生息地画像に適用する。
我々は、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の2つのモデルのファミリーを評価する。
我々の結果は、ViTsがキー分類基準の最先端CNNベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-07-05T12:07:13Z) - BioCLIP 2: Emergent Properties from Scaling Hierarchical Contrastive Learning [51.341003735575335]
生体視覚モデルでは,大規模コントラスト視覚言語学習により創発的行動が観察される。
我々は、異なる種を区別するために、TreeOfLife-200MでBioCLIP 2を訓練する。
得られたBioCLIP 2の埋め込み空間における創発的特性を同定する。
論文 参考訳(メタデータ) (2025-05-29T17:48:20Z) - BeetleVerse: A Study on Taxonomic Classification of Ground Beetles [0.310688583550805]
地上の甲虫は、非常に敏感で特異な生物学的指標であり、生物多様性のモニタリングに不可欠である。
本稿では,4つの多種多様な長い尾を持つデータセットの分類分類に関する12の視覚モデルを評価する。
その結果,視覚と言語変換器を頭部と組み合わせたモデルが最も優れており,97%の精度で種・種レベルでの精度が得られた。
論文 参考訳(メタデータ) (2025-04-18T01:06:37Z) - Feedforward Few-shot Species Range Estimation [61.60698161072356]
特定の種が地球上でどこで発見できるかを知ることは、生態学の研究と保全に不可欠である。
正確な射程推定は 知られている全ての種の 比較的小さな割合でしか 利用できない
我々は、限られたデータから種の範囲を正確に推定するという課題に対処するために、数発の種範囲推定の新しいアプローチを概説する。
論文 参考訳(メタデータ) (2025-02-20T19:13:29Z) - Hierarchical Classification for Automated Image Annotation of Coral Reef Benthic Structures [5.407146435972322]
自動ベント画像アノテーションは,サンゴ礁の気候変動対策を効率的に監視し,保護するために重要である。
現在の機械学習アプローチでは、ベント生物の階層的な性質を捉えることができない。
階層分類を用いた良性画像のアノテートを提案する。
論文 参考訳(メタデータ) (2024-12-11T09:28:30Z) - Habitat classification from satellite observations with sparse
annotations [4.164845768197488]
リモートセンシングデータを用いた生息地分類とマッピング手法を提案する。
この方法は、フィールドから収集された細粒度でスパースな単一ピクセルアノテーションを使用することによって特徴付けられる。
本研究では, 収穫増量, 試験時間増量, 半教師付き学習が, さらに分類の助けとなることを示す。
論文 参考訳(メタデータ) (2022-09-26T20:14:59Z) - Deep learning for lithological classification of carbonate rock micro-CT
images [52.77024349608834]
本研究は,ブラジルのプリサルト炭酸塩岩微視的画像のパターン同定にディープラーニング技術を適用することを目的としている。
4つの畳み込みニューラルネットワークモデルが提案された。
精度によると、リサイズ画像で訓練されたモデル2は、最初の評価アプローチでは平均75.54%、2番目の評価では平均81.33%に達した。
論文 参考訳(メタデータ) (2020-07-30T19:14:00Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。