論文の概要: Optical flow-based branch segmentation for complex orchard environments
- arxiv url: http://arxiv.org/abs/2202.13050v1
- Date: Sat, 26 Feb 2022 03:38:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 13:46:15.479905
- Title: Optical flow-based branch segmentation for complex orchard environments
- Title(参考訳): 複雑な果樹園環境のための光フローベース分岐セグメンテーション
- Authors: Alexander You, Cindy Grimm, Joseph R. Davidson
- Abstract要約: シミュレーションでは、シミュレーションでは、シミュレーションされたRGBデータと光フローのみを用いてニューラルネットワークシステムを訓練する。
このニューラルネットワークは、忙しい果樹園環境において、追加の現実世界のトレーニングや、標準カメラ以外の特別な設定や機器を使用することなく、前景の枝のセグメンテーションを行うことができる。
その結果,本システムは高精度であり,手動ラベル付きRGBDデータを用いたネットワークと比較すると,トレーニングセットと異なる環境において,より一貫性と堅牢性を実現していることがわかった。
- 参考スコア(独自算出の注目度): 73.11023209243326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine vision is a critical subsystem for enabling robots to be able to
perform a variety of tasks in orchard environments. However, orchards are
highly visually complex environments, and computer vision algorithms operating
in them must be able to contend with variable lighting conditions and
background noise. Past work on enabling deep learning algorithms to operate in
these environments has typically required large amounts of hand-labeled data to
train a deep neural network or physically controlling the conditions under
which the environment is perceived. In this paper, we train a neural network
system in simulation only using simulated RGB data and optical flow. This
resulting neural network is able to perform foreground segmentation of branches
in a busy orchard environment without additional real-world training or using
any special setup or equipment beyond a standard camera. Our results show that
our system is highly accurate and, when compared to a network using manually
labeled RGBD data, achieves significantly more consistent and robust
performance across environments that differ from the training set.
- Abstract(参考訳): 機械ビジョンは、ロボットが果樹園環境で様々なタスクを実行できるようにするための重要なサブシステムである。
しかし、果樹園は非常に視覚的に複雑な環境であり、それらで動作するコンピュータビジョンアルゴリズムは、様々な照明条件や背景ノイズと競合できなければならない。
このような環境でディープラーニングアルゴリズムを運用するためには、通常、ディープニューラルネットワークをトレーニングしたり、環境が知覚される条件を物理的に制御するために、大量の手ラベルデータが必要だった。
本稿では,シミュレーションにおいて,RGBデータと光フローのシミュレーションのみを用いてニューラルネットワークシステムを訓練する。
この結果得られるニューラルネットワークは、実世界のトレーニングや、標準カメラ以外の特別なセットアップや機器を使用することなく、忙しい果樹園環境で分岐の前景セグメンテーションを実行できる。
その結果,本システムは,手動ラベル付きrgbdデータを用いたネットワークと比較した場合,トレーニングセットと異なる環境間において,より一貫性とロバストな性能を実現することができた。
関連論文リスト
- RaSim: A Range-aware High-fidelity RGB-D Data Simulation Pipeline for Real-world Applications [55.24463002889]
我々は深度データ合成に焦点をあて、レンジ対応RGB-Dデータシミュレーションパイプライン(RaSim)を開発した。
特に、実世界のセンサーの撮像原理を模倣して高忠実度深度データを生成する。
RaSimは、下流のRGB-D知覚タスクで微調整をすることなく、現実世界のシナリオに直接適用することができる。
論文 参考訳(メタデータ) (2024-04-05T08:52:32Z) - Enhancing Graph Representation of the Environment through Local and
Cloud Computation [2.9465623430708905]
複数の情報源からロボット環境のセマンティックな表現を提供するグラフベースの表現を提案する。
環境から情報を取得するために、このフレームワークは古典的なコンピュータビジョンツールと現代のコンピュータビジョンクラウドサービスを組み合わせる。
提案手法により、小さなオブジェクトも処理し、環境の意味表現に統合することが可能になる。
論文 参考訳(メタデータ) (2023-09-22T08:05:32Z) - Deep Multi-Emitter Spectrum Occupancy Mapping that is Robust to the
Number of Sensors, Noise and Threshold [32.880113150521154]
スペクトル占有マッピングの主な目的の1つは、センサー数、占有閾値(dBm)、センサノイズ、エミッタ数、伝播環境に関する仮定に頑健なシステムを作ることである。
このようなシステムは、トレーニングやテスト中に様々なセンサーを利用できるように、アグリゲーションのプロセスを用いてニューラルネットワークで設計される可能性がある。
論文 参考訳(メタデータ) (2022-11-27T14:08:11Z) - An in-depth experimental study of sensor usage and visual reasoning of
robots navigating in real environments [20.105395754497202]
実物的エージェントの性能と推論能力について検討し、シミュレーションで訓練し、2つの異なる物理的環境に展開する。
我々は,PointGoalタスクに対して,多種多様なタスクを事前訓練し,対象環境の模擬バージョンを微調整したエージェントが,sim2real転送をモデル化せずに競争性能に達することを示す。
論文 参考訳(メタデータ) (2021-11-29T16:27:29Z) - Attention-based Neural Network for Driving Environment Complexity
Perception [123.93460670568554]
本稿では,周囲の運転環境の複雑さを予測するための,注目に基づく新しいニューラルネットワークモデルを提案する。
Yolo-v3オブジェクト検出アルゴリズム、ヒートマップ生成アルゴリズム、CNNベースの特徴抽出器、注目ベースの特徴抽出器で構成される。
提案するアテンションベースネットワークは,周囲環境の複雑さを分類する平均分類精度91.22%を達成している。
論文 参考訳(メタデータ) (2021-06-21T17:27:11Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - Stillleben: Realistic Scene Synthesis for Deep Learning in Robotics [33.30312206728974]
本稿では,シーン認識タスクの学習データを生成するための合成パイプラインについて述べる。
本手法は,物理シミュレーションを用いて,物体メッシュを物理的に現実的で密集したシーンに配置する。
私たちのパイプラインは、ディープニューラルネットワークのトレーニング中にオンラインで実行できます。
論文 参考訳(メタデータ) (2020-05-12T10:11:00Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z) - Zero-Shot Reinforcement Learning with Deep Attention Convolutional
Neural Networks [12.282277258055542]
本研究では、特定の視覚センサ構成を持つ深層注意畳み込みニューラルネットワーク(DACNN)が、より低い計算複雑性で高いドメインとパラメータの変動を持つデータセット上でトレーニングを行うことを示す。
我々の新しいアーキテクチャは、制御対象に対する認識に適応し、知覚ネットワークを事前訓練することなくゼロショット学習を実現する。
論文 参考訳(メタデータ) (2020-01-02T19:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。