論文の概要: StreamYOLO: Real-time Object Detection for Streaming Perception
- arxiv url: http://arxiv.org/abs/2207.10433v1
- Date: Thu, 21 Jul 2022 12:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:15:27.913621
- Title: StreamYOLO: Real-time Object Detection for Streaming Perception
- Title(参考訳): StreamYOLO: ストリーム知覚のためのリアルタイムオブジェクト検出
- Authors: Jinrong Yang, Songtao Liu, Zeming Li, Xiaoping Li, Jian Sun
- Abstract要約: 将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
- 参考スコア(独自算出の注目度): 84.2559631820007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The perceptive models of autonomous driving require fast inference within a
low latency for safety. While existing works ignore the inevitable
environmental changes after processing, streaming perception jointly evaluates
the latency and accuracy into a single metric for video online perception,
guiding the previous works to search trade-offs between accuracy and speed. In
this paper, we explore the performance of real time models on this metric and
endow the models with the capacity of predicting the future, significantly
improving the results for streaming perception. Specifically, we build a simple
framework with two effective modules. One is a Dual Flow Perception module
(DFP). It consists of dynamic flow and static flow in parallel to capture
moving tendency and basic detection feature, respectively. Trend Aware Loss
(TAL) is the other module which adaptively generates loss weight for each
object with its moving speed. Realistically, we consider multiple velocities
driving scene and further propose Velocity-awared streaming AP (VsAP) to
jointly evaluate the accuracy. In this realistic setting, we design a efficient
mix-velocity training strategy to guide detector perceive any velocities. Our
simple method achieves the state-of-the-art performance on Argoverse-HD dataset
and improves the sAP and VsAP by 4.7% and 8.2% respectively compared to the
strong baseline, validating its effectiveness.
- Abstract(参考訳): 自律運転の知覚モデルは、安全のために低レイテンシ内で高速な推論を必要とする。
既存の作業は処理後の環境変化を無視するが、ストリーミング知覚は遅延と精度をビデオオンライン認識のための単一の指標に共同で評価し、以前の作業は精度と速度のトレードオフを探索する。
本稿では,このメトリックを用いた実時間モデルの性能を考察し,モデルに未来を予測する能力を与え,ストリーミング知覚の結果を大幅に改善する。
具体的には、2つの効果的なモジュールを持つシンプルなフレームワークを構築します。
1つはDual Flow Perception Module (DFP)である。
移動傾向と基本検出特徴をそれぞれ捉えるために,動的流れと静的流れを並列に行う。
Trend Aware Loss (TAL) は、移動速度で各オブジェクトの損失重量を適応的に生成するモジュールである。
現実的には,複数の速度を駆動するシーンを検討し,vsap(velocity-awared streaming ap)を提案する。
この現実的な環境では、検出器が速度を認識するための効率的な混合速度訓練戦略を設計する。
提案手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善し,その有効性を検証した。
関連論文リスト
- MPVO: Motion-Prior based Visual Odometry for PointGoal Navigation [3.9974562667271507]
視覚計測(VO)は,室内環境におけるエンボディエージェントの正確なポイントゴールナビゲーションを可能にするために不可欠である。
近年の深層学習VO法は, 頑健な性能を示すが, トレーニング中のサンプル不効率に悩まされている。
エージェントが環境をナビゲートしている間に利用可能な動作先に基づいて、ロバストでサンプル効率の良いVOパイプラインを提案する。
論文 参考訳(メタデータ) (2024-11-07T15:36:49Z) - Real-time Stereo-based 3D Object Detection for Streaming Perception [12.52037626475608]
本稿では,ストリーミング知覚のための3Dオブジェクト検出フレームワークStreamDSGNを紹介する。
StreamDSGNは、過去の情報を利用して、次の瞬間にオブジェクトの3D特性を直接予測する。
強いベースラインと比較して、StreamDSGNはストリーミング平均精度を最大4.33%向上させる。
論文 参考訳(メタデータ) (2024-10-16T09:23:02Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - SIMPL: A Simple and Efficient Multi-agent Motion Prediction Baseline for
Autonomous Driving [27.776472262857045]
本稿では,自動運転車のための簡易かつ効率的な運動予測ベースライン(SIMPL)を提案する。
メッセージ転送を対称的に行う,コンパクトで効率的なグローバル機能融合モジュールを提案する。
強力なベースラインとして、SIMPLはArgoverse 1と2のモーション予測ベンチマークで高い競争性能を示す。
論文 参考訳(メタデータ) (2024-02-04T15:07:49Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - PAN: Towards Fast Action Recognition via Learning Persistence of
Appearance [60.75488333935592]
最先端のほとんどの手法は、動きの表現として密度の高い光の流れに大きく依存している。
本稿では,光学的フローに依存することで,高速な動作認識に光を当てる。
我々はPersistence of Outearance(PA)と呼ばれる新しい動きキューを設計する。
光学的流れとは対照的に,我々のPAは境界における運動情報の蒸留に重点を置いている。
論文 参考訳(メタデータ) (2020-08-08T07:09:54Z) - Towards Streaming Perception [70.68520310095155]
本稿では、リアルタイムオンライン知覚のための単一のメトリクスにレイテンシと精度を協調的に統合するアプローチを提案する。
この指標の背後にある重要な洞察は、瞬間ごとに認識スタック全体の出力を共同で評価することである。
本稿では,都市ビデオストリームにおけるオブジェクト検出とインスタンスセグメンテーションの具体的タスクに注目し,高品質で時間依存的なアノテーションを備えた新しいデータセットを寄贈する。
論文 参考訳(メタデータ) (2020-05-21T01:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。