論文の概要: Eyes on the Grass: Biodiversity-Increasing Robotic Mowing Using Deep Visual Embeddings
- arxiv url: http://arxiv.org/abs/2512.15993v1
- Date: Wed, 17 Dec 2025 21:55:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.837043
- Title: Eyes on the Grass: Biodiversity-Increasing Robotic Mowing Using Deep Visual Embeddings
- Title(参考訳): 草の目:ディープ・ビジュアル・エンベディングを用いた生物多様性向上型ロボット・モウイング
- Authors: Lars Beckers, Arno Waes, Aaron Van Campenhout, Toon Goedemé,
- Abstract要約: 本稿では,視覚的知覚と適応的意思決定を通じて,園芸の多様性を積極的に向上するロボット刈り機について述べる。
PlantNet300Kで事前訓練されたResNet50ネットワークは、生態学的に意味のある埋め込みを提供する。
その結果, 埋込空間の分散と専門的生物多様性評価との間には強い相関関係が認められた。
- 参考スコア(独自算出の注目度): 4.264842065153011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a robotic mowing framework that actively enhances garden biodiversity through visual perception and adaptive decision-making. Unlike passive rewilding approaches, the proposed system uses deep feature-space analysis to identify and preserve visually diverse vegetation patches in camera images by selectively deactivating the mower blades. A ResNet50 network pretrained on PlantNet300K provides ecologically meaningful embeddings, from which a global deviation metric estimates biodiversity without species-level supervision. These estimates drive a selective mowing algorithm that dynamically alternates between mowing and conservation behavior. The system was implemented on a modified commercial robotic mower and validated both in a controlled mock-up lawn and on real garden datasets. Results demonstrate a strong correlation between embedding-space dispersion and expert biodiversity assessment, confirming the feasibility of deep visual diversity as a proxy for ecological richness and the effectiveness of the proposed mowing decision approach. Widespread adoption of such systems will turn ecologically worthless, monocultural lawns into vibrant, valuable biotopes that boost urban biodiversity.
- Abstract(参考訳): 本稿では,視覚的知覚と適応的意思決定を通じて,園芸の多様性を積極的に向上するロボット刈り機について述べる。
受動再溶接法と異なり, カメラ画像中の視覚的に多様な植生のパッチを特定し, 保存するために, 深い特徴空間解析を用いて, 芝刈り刃を選択的に非活性化する。
PlantNet300Kで事前訓練されたResNet50ネットワークは、生態学的に意味のある埋め込みを提供し、地球規模の偏差測定によって種レベルでの監督なしに生物多様性を推定する。
これらの推定は、刈り上げと保存挙動を動的に交互に交互に行う選択的刈り込みアルゴリズムを駆動する。
このシステムは、市販のロボット芝刈り機に実装され、制御されたモックアップ芝生と実際の庭のデータセットの両方で検証された。
その結果, 埋没空間の分散と専門的生物多様性評価の相関が強く, 深部視覚の多様性が生態的豊かさの指標となり, 刈り取り決定手法の有効性が確認された。
このようなシステムの普及は、生態的に価値のない単文化の芝生を活気ある貴重なバイオトップに変え、都市の生物多様性を高めます。
関連論文リスト
- Deep Learning for Automated Identification of Vietnamese Timber Species: A Tool for Ecological Monitoring and Conservation [2.1466764570532004]
本研究では,ベトナムでよく見られる10種の木材の自動分類における深層学習の適用について検討した。
フィールドコレクトされた木材サンプルからカスタムイメージデータセットを構築し、5つの最先端の畳み込みニューラルネットワークアーキテクチャを評価した。
ShuffleNetV2は、99.29%、F1スコア99.35%の精度で、分類性能と計算効率の最良のバランスを達成した。
論文 参考訳(メタデータ) (2025-08-13T02:54:58Z) - BioAnalyst: A Foundation Model for Biodiversity [0.565395466029518]
本稿では,生物多様性分析と保全計画に適した最初の基礎モデルであるBioAnalystを紹介する。
BioAnalystは、広範なマルチモーダルデータセットに基づいて事前トレーニングされた、トランスフォーマーベースのアーキテクチャを採用している。
本稿では,2つのダウンストリームユースケースにおけるモデルの性能評価を行い,既存手法と比較して汎用性を実証した。
論文 参考訳(メタデータ) (2025-07-11T23:56:08Z) - Habitat Classification from Ground-Level Imagery Using Deep Neural Networks [1.3408365072149797]
本研究では、現在最先端の深層ニューラルネットワークアーキテクチャを地上レベルの生息地画像に適用する。
我々は、畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)の2つのモデルのファミリーを評価する。
我々の結果は、ViTsがキー分類基準の最先端CNNベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-07-05T12:07:13Z) - BioCLIP 2: Emergent Properties from Scaling Hierarchical Contrastive Learning [60.80381372245902]
生体視覚モデルでは,大規模コントラスト視覚言語学習により創発的行動が観察される。
我々は、異なる種を区別するために、TreeOfLife-200MでBioCLIP 2を訓練する。
得られたBioCLIP 2の埋め込み空間における創発的特性を同定する。
論文 参考訳(メタデータ) (2025-05-29T17:48:20Z) - Dual-Task Learning for Dead Tree Detection and Segmentation with Hybrid Self-Attention U-Nets in Aerial Imagery [1.693687279684153]
本研究では,深層学習に基づく木分割を改良するハイブリッド後処理フレームワークを提案する。
ボレアル林の高解像度空中画像に基づいて、このフレームワークはインスタンスレベルのセグメンテーション精度を41.5%向上させた。
フレームワークの計算効率は、壁と壁の間の木死のマッピングのようなスケーラブルなアプリケーションをサポートする。
論文 参考訳(メタデータ) (2025-03-27T12:25:20Z) - Towards Context-Rich Automated Biodiversity Assessments: Deriving AI-Powered Insights from Camera Trap Data [0.06819010383838325]
カメラトラップは生態研究において大きな新しい機会を提供する。
現在の自動画像解析手法は、影響のある保存結果をサポートするために必要な文脈的豊かさを欠いていることが多い。
本稿では、深層学習に基づく視覚と言語モデルを組み合わせて、カメラトラップのデータを用いた生態報告を改善するための統合的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-21T15:28:52Z) - Semantic Image Segmentation with Deep Learning for Vine Leaf Phenotyping [59.0626764544669]
本研究では,ブドウの葉のイメージを意味的にセグメント化するためにDeep Learning法を用いて,葉の表現型自動検出システムを開発した。
私たちの研究は、成長や開発のような動的な特性を捉え定量化できる植物ライフサイクルのモニタリングに寄与します。
論文 参考訳(メタデータ) (2022-10-24T14:37:09Z) - Neuroevolution-based Classifiers for Deforestation Detection in Tropical
Forests [62.997667081978825]
森林破壊や荒廃により、毎年何百万ヘクタールもの熱帯林が失われる。
監視・森林破壊検知プログラムは、犯罪者の予防・処罰のための公共政策に加えて、使用されている。
本稿では,熱帯林の森林破壊検出作業におけるニューロ進化技術(NEAT)に基づくパターン分類器の利用を提案する。
論文 参考訳(メタデータ) (2022-08-23T16:04:12Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。