論文の概要: Computer Vision-Based Guidance Assistance Concept for Plowing Using
RGB-D Camera
- arxiv url: http://arxiv.org/abs/2107.12646v1
- Date: Tue, 27 Jul 2021 07:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:41:07.290971
- Title: Computer Vision-Based Guidance Assistance Concept for Plowing Using
RGB-D Camera
- Title(参考訳): コンピュータビジョンによるRGB-Dカメラによる緑化支援
- Authors: Erkin T\"urk\"oz, Ertug Olcay, Timo Oksanen
- Abstract要約: 本稿では,農業車両に対するコンピュータビジョンによる誘導支援の概念を提案し,耕作の精度を高める。
RGB-Dカメラを用いたファロー検出システムを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes a concept of computer vision-based guidance assistance
for agricultural vehicles to increase the accuracy in plowing and reduce
driver's cognitive burden in long-lasting tillage operations. Plowing is a
common agricultural practice to prepare the soil for planting in many countries
and it can take place both in the spring and the fall. Since plowing operation
requires high traction forces, it causes increased energy consumption.
Moreover, longer operation time due to unnecessary maneuvers leads to higher
fuel consumption. To provide necessary information for the driver and the
control unit of the tractor, a first concept of furrow detection system based
on an RGB-D camera was developed.
- Abstract(参考訳): 本稿では,長期耕作作業における運転者の認知負担を軽減するため,農業車両に対するコンピュータビジョンによる指導支援の概念を提案する。
耕作は、多くの国で土壌を栽培するための一般的な農業慣行であり、春から秋にかけて行われる。
耕作作業は高い牽引力を必要とするため、エネルギー消費が増大する。
さらに、不必要な操作による運転時間の延長が燃料消費の増大につながる。
トラクタの運転者及び制御ユニットに必要な情報を提供するため、rgb-dカメラに基づく第1のファーロウ検出システムを開発した。
関連論文リスト
- Classification of Safety Driver Attention During Autonomous Vehicle
Operation [11.33083039877258]
本稿では、車両オペレーターと車両認識システムに対向する赤外線カメラからのデータを統合したデュアルソースアプローチを提案する。
提案システムは,車両運転者の注意度基準を効果的に決定し,警告や自律機能低下などの介入を適切に行う。
論文 参考訳(メタデータ) (2023-10-17T22:04:42Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Hardware Accelerators in Autonomous Driving [5.317893030884531]
ハードウェアアクセラレーターは、自動運転車がより高いレベルの自律性のためにパフォーマンス要件を満たすのを助ける特別な目的のコプロセッサである。
本稿では,MLアクセラレータの概要と,自律走行車におけるマシンビジョンの利用例を紹介する。
論文 参考訳(メタデータ) (2023-08-11T10:07:33Z) - A Review of Driver Gaze Estimation and Application in Gaze Behavior
Understanding [2.020578082776547]
運転者視線は、運転者の注意力検出、視覚的注意障害検出、視線行動理解、運転支援システム構築など、さまざまな視線ベースのアプリケーションにおいて重要な役割を果たす。
本研究は,運転者視線の基礎,運転者視線推定方法,実世界の運転シナリオにおける応用の総合的な要約を行う。
論文 参考訳(メタデータ) (2023-07-04T04:29:03Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - TransDARC: Transformer-based Driver Activity Recognition with Latent
Space Feature Calibration [31.908276711898548]
本稿では、視覚変換器に基づく二次運転行動認識のための視覚ベースのフレームワークと、機能分散キャリブレーションモジュールを提案する。
当社のフレームワークは,すべてのレベルにおいて,公的なDrive&Actベンチマークの過去の成果を上回り,認識率を常に向上させています。
論文 参考訳(メタデータ) (2022-03-02T08:14:06Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Real-time Keypoints Detection for Autonomous Recovery of the Unmanned
Ground Vehicle [23.81488235557878]
本稿では,低コストな単眼視システムを備えた新しい自律的回復フレームワークを提案する。
小型UGVのキーポイントを検出するために,UGV-KPNetと呼ばれる軽量畳み込みニューラルネットワークを導入する。
私たちは、UGVの大規模な実世界のキーポイントデータセットを最初に作成しました。
論文 参考訳(メタデータ) (2021-07-27T14:36:59Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。