論文の概要: Training Deep Learning Algorithms on Synthetic Forest Images for Tree
Detection
- arxiv url: http://arxiv.org/abs/2210.04104v1
- Date: Sat, 8 Oct 2022 20:49:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:59:25.666621
- Title: Training Deep Learning Algorithms on Synthetic Forest Images for Tree
Detection
- Title(参考訳): 樹木検出のための合成森林画像の深層学習アルゴリズム
- Authors: Vincent Grondin, Fran\c{c}ois Pomerleau, Philippe Gigu\`ere,
- Abstract要約: そこで本研究では,43kのリアルな合成画像を画素レベルのアノテーションで自動生成するために,シミュレートされた森林環境を提案する。
また、実画像上で境界ボックス、セグメンテーションマスク、キーポイントを直接予測することにより、合成データセットで学習した特徴の有望な伝達学習能力を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-based segmentation in forested environments is a key functionality for
autonomous forestry operations such as tree felling and forwarding. Deep
learning algorithms demonstrate promising results to perform visual tasks such
as object detection. However, the supervised learning process of these
algorithms requires annotations from a large diversity of images. In this work,
we propose to use simulated forest environments to automatically generate 43 k
realistic synthetic images with pixel-level annotations, and use it to train
deep learning algorithms for tree detection. This allows us to address the
following questions: i) what kind of performance should we expect from deep
learning in harsh synthetic forest environments, ii) which annotations are the
most important for training, and iii) what modality should be used between RGB
and depth. We also report the promising transfer learning capability of
features learned on our synthetic dataset by directly predicting bounding box,
segmentation masks and keypoints on real images. Code available on GitHub
(https://github.com/norlab-ulaval/PercepTreeV1).
- Abstract(参考訳): 森林環境におけるビジョンに基づくセグメンテーションは,森林の伐採やフォワードといった自律的操作において重要な機能である。
ディープラーニングアルゴリズムは、オブジェクト検出などの視覚的なタスクを実行するための有望な結果を示す。
しかし、これらのアルゴリズムの教師付き学習プロセスは、大量の画像からのアノテーションを必要とする。
本研究では,シミュレートフォレスト環境を用いて,ピクセルレベルアノテーションを用いた43kのリアル合成画像の自動生成と,木検出のためのディープラーニングアルゴリズムのトレーニングを行う。
これにより、以下の質問に答えることができます。
一 厳しい森林環境下での深層学習にどのようなパフォーマンスを期待すべきか。
二 どのアノテーションが訓練に最も重要であるか、及び
三 RGBと深度の間に何のモダリティを使うか。
また,実画像のバウンディングボックス,セグメンテーションマスク,キーポイントを直接予測することにより,合成データセットで学習した特徴の転送学習能力を報告した。
コードはgithubで入手できる(https://github.com/norlab-ulaval/perceptreev1)。
関連論文リスト
- Forest Inspection Dataset for Aerial Semantic Segmentation and Depth
Estimation [6.635604919499181]
森林調査のための大規模航空データセットを新たに導入する。
現実世界と仮想的な自然環境の記録も含んでいる。
地域の森林破壊度を評価するための枠組みを開発する。
論文 参考訳(メタデータ) (2024-03-11T11:26:44Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Tree Detection and Diameter Estimation Based on Deep Learning [0.0]
樹木認識は、自律的な林業活動に向けた重要なビルディングブロックである。
データセットでトレーニングされたディープニューラルネットワークモデルは、木検出の精度90.4%を達成する。
結果は、自律的な倒木作戦への有望な道を提供する。
論文 参考訳(メタデータ) (2022-10-31T15:51:32Z) - Pixel-wise classification in graphene-detection with tree-based machine
learning algorithms [0.0]
決定木、ランダムフォレスト、極端なブースト勾配、光勾配ブーストマシンの4つの異なる木に基づく機械学習アルゴリズムを導入する。
グラフェンの光学顕微鏡画像5枚をトレーニングし、その性能を複数の指標と指標で評価する。
この論文で開発されたコードはindices.com/gjung-group/Graphene_segmentationで公開される。
論文 参考訳(メタデータ) (2022-08-24T08:10:27Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - HistoTransfer: Understanding Transfer Learning for Histopathology [9.231495418218813]
我々は、ImageNetと病理組織データに基づいてトレーニングされたネットワークから抽出された特徴の性能を比較した。
より複雑なネットワークを用いて学習した機能が性能向上につながるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-13T18:55:23Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Propagate Yourself: Exploring Pixel-Level Consistency for Unsupervised
Visual Representation Learning [60.75687261314962]
我々は,高密度な特徴表現を学習するための画素レベルのプレテキストタスクを導入する。
ピクセル・ツー・プロパゲーション整合性タスクは、最先端のアプローチよりも優れた結果をもたらす。
結果は、ピクセルレベルでプリテキストタスクを定義する強力な可能性を示している。
論文 参考訳(メタデータ) (2020-11-19T18:59:45Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。