論文の概要: Self-Configurable Stabilized Real-Time Detection Learning for Autonomous
Driving Applications
- arxiv url: http://arxiv.org/abs/2209.14525v1
- Date: Thu, 29 Sep 2022 03:11:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 18:24:11.122990
- Title: Self-Configurable Stabilized Real-Time Detection Learning for Autonomous
Driving Applications
- Title(参考訳): 自律運転用自己設定型安定化リアルタイム検出学習
- Authors: Won Joon Yun, Soohyun Park, Joongheon Kim, David Mohaisen
- Abstract要約: 光フロー推定による物体検出ニューラルネットワークの性能向上を図る。
動的車両環境に合うように光の流れを使うかどうかを適応的に決定する。
実演では,提案フレームワークの精度が3.02%向上し,検出対象数が59.6%向上し,計算の待ち行列安定性が向上した。
- 参考スコア(独自算出の注目度): 15.689145350449737
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Guaranteeing real-time and accurate object detection simultaneously is
paramount in autonomous driving environments. However, the existing object
detection neural network systems are characterized by a tradeoff between
computation time and accuracy, making it essential to optimize such a tradeoff.
Fortunately, in many autonomous driving environments, images come in a
continuous form, providing an opportunity to use optical flow. In this paper,
we improve the performance of an object detection neural network utilizing
optical flow estimation. In addition, we propose a Lyapunov optimization
framework for time-average performance maximization subject to stability. It
adaptively determines whether to use optical flow to suit the dynamic vehicle
environment, thereby ensuring the vehicle's queue stability and the
time-average maximum performance simultaneously. To verify the key ideas, we
conduct numerical experiments with various object detection neural networks and
optical flow estimation networks. In addition, we demonstrate the
self-configurable stabilized detection with YOLOv3-tiny and FlowNet2-S, which
are the real-time object detection network and an optical flow estimation
network, respectively. In the demonstration, our proposed framework improves
the accuracy by 3.02%, the number of detected objects by 59.6%, and the queue
stability for computing capabilities.
- Abstract(参考訳): 自律走行環境では,リアルタイムかつ高精度な物体検出を同時に行うことが重要となる。
しかし、既存のオブジェクト検出ニューラルネットワークシステムは、計算時間と精度のトレードオフが特徴であり、そのようなトレードオフを最適化することが不可欠である。
幸いなことに、多くの自動運転環境では、画像が連続的に表示され、光学フローを使用する機会を提供する。
本稿では,光学的フロー推定を用いた物体検出ニューラルネットワークの性能向上を図る。
また,安定性を考慮した時間平均性能最大化のためのLyapunov最適化フレームワークを提案する。
動的車両環境に適合するために光学フローを使用するかを適応的に決定し、車両の待ち行列安定性と平均性能を同時に確保する。
重要概念を検証するため,様々な物体検出ニューラルネットワークと光フロー推定ネットワークを用いて数値実験を行った。
さらに、リアルタイム物体検出ネットワークであるYOLOv3-tinyとFlowNet2-Sによる自己設定可能な安定化検出と光フロー推定ネットワークをそれぞれ示す。
実演では,提案フレームワークの精度が3.02%向上し,検出対象数が59.6%向上し,計算能力のキュー安定性が向上した。
関連論文リスト
- Neuromorphic Optical Flow and Real-time Implementation with Event
Cameras [47.11134388304464]
イベントベースのビジョンとスパイクニューラルネットワークの最新の開発の上に構築しています。
我々は、最先端の自己監督型光フロー精度を向上させる新しいネットワークアーキテクチャを提案する。
約2桁の複雑さで高速な光流予測を行う。
論文 参考訳(メタデータ) (2023-04-14T14:03:35Z) - Optical flow estimation from event-based cameras and spiking neural
networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Accurate and Real-time Pseudo Lidar Detection: Is Stereo Neural Network
Really Necessary? [6.8067583993953775]
我々は,より強力なステレオマッチング予測器を備えたシステムを開発し,精度向上のための改良手法を提案する。
提案システムは23ミリ秒の計算で最先端のアプローチと競合する精度を達成し,実車用アプリケーションへのデプロイに適した候補であることを示す。
論文 参考訳(メタデータ) (2022-06-28T09:53:00Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Streaming Object Detection for 3-D Point Clouds [29.465873948076766]
LiDARは、多くの既存の知覚システムに通知する顕著な感覚モダリティを提供する。
ポイントクラウドデータに基づく知覚システムのレイテンシは、完全なローテーションスキャンの時間量によって支配される。
我々は、LiDARデータをそのネイティブストリーミング定式化で操作することで、自動運転オブジェクト検出にいくつかの利点があることを示す。
論文 参考訳(メタデータ) (2020-05-04T21:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。