論文の概要: Explicitly incorporating spatial information to recurrent networks for
agriculture
- arxiv url: http://arxiv.org/abs/2206.13406v1
- Date: Mon, 27 Jun 2022 15:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 14:17:18.085243
- Title: Explicitly incorporating spatial information to recurrent networks for
agriculture
- Title(参考訳): 農業用リカレントネットワークへの空間情報の導入
- Authors: Claus Smitt, Michael Halstead, Alireza Ahmadi, and Chris McCool
- Abstract要約: 本稿では,深層畳み込みニューラルネットワークの分類を改善するための新しい手法を提案する。
利用可能なRGB-D画像とロボット・オドメトリーを利用してフレーム間特徴マップ空間登録を行う。
この情報は、その正確さと堅牢性を改善するために、繰り返し学習されたモデル内で融合される。
- 参考スコア(独自算出の注目度): 4.583080280213959
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In agriculture, the majority of vision systems perform still image
classification. Yet, recent work has highlighted the potential of spatial and
temporal cues as a rich source of information to improve the classification
performance. In this paper, we propose novel approaches to explicitly capture
both spatial and temporal information to improve the classification of deep
convolutional neural networks. We leverage available RGB-D images and robot
odometry to perform inter-frame feature map spatial registration. This
information is then fused within recurrent deep learnt models, to improve their
accuracy and robustness. We demonstrate that this can considerably improve the
classification performance with our best performing spatial-temporal model
(ST-Atte) achieving absolute performance improvements for
intersection-over-union (IoU[%]) of 4.7 for crop-weed segmentation and 2.6 for
fruit (sweet pepper) segmentation. Furthermore, we show that these approaches
are robust to variable framerates and odometry errors, which are frequently
observed in real-world applications.
- Abstract(参考訳): 農業では、視覚系の大半は静止画像分類を行う。
しかし、最近の研究は、分類性能を向上させるための豊富な情報源としての空間的・時間的手がかりの可能性を強調している。
本稿では,深層畳み込みニューラルネットワークの分類を改善するために,空間情報と時間情報の両方を明示的に捉える新しい手法を提案する。
利用可能なRGB-D画像とロボット・オドメトリーを利用してフレーム間特徴マップ空間登録を行う。
この情報は、その正確性と堅牢性を改善するために、繰り返し発生するディープラーニングモデルに融合される。
作物雑草分画4.7の交雑種(IoU[%])と果実(サツマイモ)分画2.6の絶対的性能向上を達成し、最も優れた時空間モデル(ST-Atte)による分類性能を向上できることを実証した。
さらに,これらの手法は,実世界のアプリケーションでよく見られる可変フレームレートやオドメトリー誤差に対して堅牢であることを示す。
関連論文リスト
- How Important are Data Augmentations to Close the Domain Gap for Object Detection in Orbit? [15.550663626482903]
宇宙空間におけるコンピュータビジョンの領域ギャップを埋めるためのデータ拡張の有効性について検討する。
本稿では,軌道画像に観察される視覚効果をエミュレートするために開発された2つの新しいデータ拡張法を提案する。
論文 参考訳(メタデータ) (2024-10-21T08:24:46Z) - DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Investigating Temporal Convolutional Neural Networks for Satellite Image
Time Series Classification: A survey [0.0]
時間的CNNは、SITS分類タスクに採用され、結果を奨励している。
本稿では,本手法をSITS分類の多くの現代的手法と比較し,近年の文献における既存の知見の検証を試みる。
2つのベンチマークSITSデータセットで実験を行い、Temporal CNNが比較ベンチマークアルゴリズムよりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2022-04-13T14:08:14Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - On estimating gaze by self-attention augmented convolutions [6.015556590955813]
本稿では,学習した特徴の質を向上させるために,自己注意型拡張畳み込みに基づく新しいネットワークアーキテクチャを提案する。
私たちは、Attention-augmented ResNet(ARes-14)を2つの畳み込みバックボーンとして探求するフレームワークをARes-gazeと呼びました。
その結果,MPIIFaceGazeデータセットの最先端手法と比較して平均角誤差が2.38%減少し,EyeDiapデータセットの2位となった。
論文 参考訳(メタデータ) (2020-08-25T14:29:05Z) - Data Augmentation via Mixed Class Interpolation using Cycle-Consistent
Generative Adversarial Networks Applied to Cross-Domain Imagery [16.870604081967866]
機械学習による物体検出と非可視画像内の分類は多くの分野において重要な役割を担っている。
しかし、このような応用は、限られた量の非可視領域画像のためにしばしば苦しむ。
本稿では,可視光帯域画像を利用した新しいデータ拡張手法の提案と評価を行う。
論文 参考訳(メタデータ) (2020-05-05T18:53:38Z) - Improvement in Land Cover and Crop Classification based on Temporal
Features Learning from Sentinel-2 Data Using Recurrent-Convolutional Neural
Network (R-CNN) [1.0312968200748118]
本稿では,リカレントニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)に基づく,画素ベースの土地被覆と作物分類(LC&CC)のための,新しい最適なディープラーニングモデルを開発する。
本研究では,主要農作物を含む15種について検討した。
提案したPixel R-CNNの全体的な精度は96.5%であり、既存の主流手法と比較して大幅に改善された。
論文 参考訳(メタデータ) (2020-04-27T15:39:50Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。