論文の概要: Soil Image Segmentation Based on Mask R-CNN
- arxiv url: http://arxiv.org/abs/2309.00817v1
- Date: Sat, 2 Sep 2023 04:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 00:54:37.804711
- Title: Soil Image Segmentation Based on Mask R-CNN
- Title(参考訳): Mask R-CNNに基づく土壌画像分割
- Authors: Yida Chen, Kang Liu, Yi Xin, Xinru Zhao
- Abstract要約: 土壌画像から土壌中心領域を分離することで、複雑な背景の影響を排除できる。
土壌画像のセグメンテーションに深層学習法を初めて適用した。
自然条件下でのフィールド内の土壌画像のリアルタイムセグメンテーションと検出を満足させることができる。
- 参考スコア(独自算出の注目度): 6.367554631166897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complex background in the soil image collected in the field natural
environment will affect the subsequent soil image recognition based on machine
vision. Segmenting the soil center area from the soil image can eliminate the
influence of the complex background, which is an important preprocessing work
for subsequent soil image recognition. For the first time, the deep learning
method was applied to soil image segmentation, and the Mask R-CNN model was
selected to complete the positioning and segmentation of soil images. Construct
a soil image dataset based on the collected soil images, use the EISeg
annotation tool to mark the soil area as soil, and save the annotation
information; train the Mask R-CNN soil image instance segmentation model. The
trained model can obtain accurate segmentation results for soil images, and can
show good performance on soil images collected in different environments; the
trained instance segmentation model has a loss value of 0.1999 in the training
set, and the mAP of the validation set segmentation (IoU=0.5) is 0.8804, and it
takes only 0.06s to complete image segmentation based on GPU acceleration,
which can meet the real-time segmentation and detection of soil images in the
field under natural conditions. You can get our code in the Conclusions. The
homepage is https://github.com/YidaMyth.
- Abstract(参考訳): 自然環境下で収集された土壌画像の複雑な背景は、機械視に基づくその後の土壌画像認識に影響を及ぼす。
土壌画像から土壌中心領域を区分することは、複雑な背景の影響を取り除き、その後の土壌画像認識に重要な前処理となる。
まず, 深層学習法を土壌画像のセグメンテーションに適用し, マスクr-cnnモデルを選択し, 土壌画像の位置とセグメンテーションを完了させた。
収集した土壌画像に基づいて土壌画像データセットを構築し、EISegアノテーションツールを使用して土壌領域を土壌としてマークし、アノテーション情報を保存し、Mask R-CNN土壌画像インスタンスのセグメンテーションモデルを訓練する。
The trained model can obtain accurate segmentation results for soil images, and can show good performance on soil images collected in different environments; the trained instance segmentation model has a loss value of 0.1999 in the training set, and the mAP of the validation set segmentation (IoU=0.5) is 0.8804, and it takes only 0.06s to complete image segmentation based on GPU acceleration, which can meet the real-time segmentation and detection of soil images in the field under natural conditions.
コードはConclusionsで取得できます。
ホームページはhttps://github.com/YidaMyth。
関連論文リスト
- A Semantic Segmentation-guided Approach for Ground-to-Aerial Image Matching [30.324252605889356]
本研究は,GPSデータを使わずに,問合せ地上画像と対応する衛星画像とをマッチングする問題に対処する。
これは地上画像と衛星画像の特徴を比較することで行われ、3ストリームのシームズ様のネットワークを通じて、対応する衛星のセグメンテーションマスクを革新的に活用する。
この新しさは、衛星画像とセマンティックセグメンテーションマスクの融合にあり、モデルが有用な特徴を抽出し、画像の重要な部分に集中できるようにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-17T12:13:18Z) - High-Quality Entity Segmentation [110.55724145851725]
CropFormerは高解像度画像におけるインスタンスレベルのセグメンテーションの難易度に対処するために設計されている。
よりきめ細かい画像とフルイメージを提供する高解像度の画像作物を融合することで、マスク予測を改善する。
CropFormerでは、難易度の高いエンティティセグメンテーションタスクで1.9ドルという大きなAP利益を達成しています。
論文 参考訳(メタデータ) (2022-11-10T18:58:22Z) - Transferring learned patterns from ground-based field imagery to predict
UAV-based imagery for crop and weed semantic segmentation in precision crop
farming [3.95486899327898]
雑草の区分けのために,UAVのフィールド画像と空中画像の両方を予測できる深層畳み込みネットワークを開発した。
ネットワーク学習プロセスは、浅い層と深い層のフィーチャーマップによって視覚化される。
この研究は、深層畳み込みニューラルネットワークが、フィールド画像と空中画像の両方から雑草を分類するために使用できることを示した。
論文 参考訳(メタデータ) (2022-10-20T19:25:06Z) - End-to-end deep learning for directly estimating grape yield from
ground-based imagery [53.086864957064876]
本研究は, ブドウ畑の収量推定に深層学習と併用した近位画像の応用を実証する。
オブジェクト検出、CNN回帰、トランスフォーマーモデルという3つのモデルアーキテクチャがテストされた。
本研究は,ブドウの収量予測における近位画像と深層学習の適用性を示した。
論文 参考訳(メタデータ) (2022-08-04T01:34:46Z) - Mars Terrain Segmentation with Less Labels [1.1745324895296465]
本研究では,火星の地形区分に関する半教師付き学習フレームワークを提案する。
コントラスト損失関数と出力アトラス畳み込みモジュールを使ってトレーニングされるバックボーンモジュールが組み込まれている。
提案したモデルは161のトレーニング画像のみを用いて91.1%のセグメンテーション精度を達成することができる。
論文 参考訳(メタデータ) (2022-02-01T22:25:15Z) - Learning To Segment Dominant Object Motion From Watching Videos [72.57852930273256]
我々は,有意な移動物体セグメンテーションのための単純なフレームワークを構想する。このフレームワークは,有意なデータを必要としないし,有意な前処理や事前学習された光フローマップに依存しない。
層状画像表現に着想を得て,アフィンパラメトリックの動きに応じて画素領域をグループ化する手法を提案する。
これにより、トレーニングと推論の両方の入力として、RGBイメージペアのみを使用して、支配的なフォアグラウンドオブジェクトのセグメンテーションを学習することができる。
論文 参考訳(メタデータ) (2021-11-28T14:51:00Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Potato Crop Stress Identification in Aerial Images using Deep
Learning-based Object Detection [60.83360138070649]
本稿では, 深層ニューラルネットワークを用いたジャガイモの空中画像解析手法を提案する。
主な目的は、植物レベルでの健康作物とストレス作物の自動空間認識を実証することである。
実験により、フィールド画像中の健康植物とストレス植物を識別し、平均Dice係数0.74を達成できることを示した。
論文 参考訳(メタデータ) (2021-06-14T21:57:40Z) - MudrockNet: Semantic Segmentation of Mudrock SEM Images through Deep
Learning [0.0]
本稿では,GoogleのDeepLab-v3+アーキテクチャに基づく深層学習SEMセグメンテーションモデルMudrockNetを提案する。
訓練された深層学習モデルは、約90%の画素精度を取得し、試験データの予測値は、銀粒の0.6591と毛穴の0.6642の平均交点(IoU)を得た。
論文 参考訳(メタデータ) (2021-02-05T19:38:44Z) - Applying convolutional neural networks to extremely sparse image
datasets using an image subdivision approach [0.0]
本研究の目的は、畳み込みニューラルネットワーク(CNN)が、元の画像データセットを分割することにより、非常にスパースな画像ライブラリに適用できることを実証することである。
論文 参考訳(メタデータ) (2020-10-25T07:43:20Z) - A New Mask R-CNN Based Method for Improved Landslide Detection [54.7905160534631]
本稿では,Mask R-CNN機能を利用した地すべり検出手法を提案する。
地すべり及び非地すべり画像を含む160個の要素からなるデータセットを作成する。
提案アルゴリズムは丘陵地帯の土地利用計画立案者や政策立案者にとって潜在的に有用である。
論文 参考訳(メタデータ) (2020-10-04T07:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。