論文の概要: Real-time Object Detection for Streaming Perception
- arxiv url: http://arxiv.org/abs/2203.12338v1
- Date: Wed, 23 Mar 2022 11:33:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 15:22:20.211437
- Title: Real-time Object Detection for Streaming Perception
- Title(参考訳): ストリーミング知覚のためのリアルタイム物体検出
- Authors: Jinrong Yang, Songtao Liu, Zeming Li, Xiaoping Li and Jian Sun
- Abstract要約: ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
- 参考スコア(独自算出の注目度): 84.2559631820007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving requires the model to perceive the environment and (re)act
within a low latency for safety. While past works ignore the inevitable changes
in the environment after processing, streaming perception is proposed to
jointly evaluate the latency and accuracy into a single metric for video online
perception. In this paper, instead of searching trade-offs between accuracy and
speed like previous works, we point out that endowing real-time models with the
ability to predict the future is the key to dealing with this problem. We build
a simple and effective framework for streaming perception. It equips a novel
DualFlow Perception module (DFP), which includes dynamic and static flows to
capture the moving trend and basic detection feature for streaming prediction.
Further, we introduce a Trend-Aware Loss (TAL) combined with a trend factor to
generate adaptive weights for objects with different moving speeds. Our simple
method achieves competitive performance on Argoverse-HD dataset and improves
the AP by 4.9% compared to the strong baseline, validating its effectiveness.
Our code will be made available at https://github.com/yancie-yjr/StreamYOLO.
- Abstract(参考訳): 自律運転では、モデルが環境を認識し、安全のために低レイテンシ内で行動する必要がある。
過去の研究は処理後の環境の変化を無視するが、ビデオオンライン知覚のための単一のメトリクスにレイテンシと精度を共同評価するためにストリーミング知覚を提案する。
本稿では,先行研究のように精度と速度のトレードオフを探索する代わりに,リアルタイムモデルに未来を予測する能力を持たせることが,この問題に対処するための鍵であることを指摘する。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
DualFlow Perceptionモジュール(DFP)は動的および静的なフローを含み、動きの傾向を捉え、ストリーミング予測のための基本的な検出機能を備えている。
さらに,動き速度の異なる物体に対して適応的な重み付けを生成するトレンド要因と組み合わせたトレンド認識損失(tal)を提案する。
本手法はargoverse-hdデータセットの競合性能を実現し,強力なベースラインと比較して4.9%改善し,その効果を検証した。
私たちのコードはhttps://github.com/yancie-yjr/streamyoloで利用できます。
関連論文リスト
- Real-time Stereo-based 3D Object Detection for Streaming Perception [12.52037626475608]
本稿では,ストリーミング知覚のための3Dオブジェクト検出フレームワークStreamDSGNを紹介する。
StreamDSGNは、過去の情報を利用して、次の瞬間にオブジェクトの3D特性を直接予測する。
強いベースラインと比較して、StreamDSGNはストリーミング平均精度を最大4.33%向上させる。
論文 参考訳(メタデータ) (2024-10-16T09:23:02Z) - Physics-guided Active Sample Reweighting for Urban Flow Prediction [75.24539704456791]
都市フロー予測は、バス、タクシー、ライド駆動モデルといった交通サービスのスループットを見積もる、微妙な時間的モデリングである。
最近の予測解は、物理学誘導機械学習(PGML)の概念による改善をもたらす。
我々は、PN(atized Physics-guided Network)を開発し、P-GASR(Physical-guided Active Sample Reweighting)を提案する。
論文 参考訳(メタデータ) (2024-07-18T15:44:23Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - Streaming Motion Forecasting for Autonomous Driving [71.7468645504988]
ストリーミングデータにおける将来の軌跡を問うベンチマークを導入し,これを「ストリーミング予測」と呼ぶ。
我々のベンチマークは本質的に、スナップショットベースのベンチマークでは見過ごされていない安全上の問題であるエージェントの消失と再出現を捉えている。
我々は,任意のスナップショットベースの予測器をストリーミング予測器に適応させることのできる,"Predictive Streamer"と呼ばれるプラグアンドプレイメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T17:13:16Z) - Leveraging the Edge and Cloud for V2X-Based Real-Time Object Detection
in Autonomous Driving [0.0]
環境認識は自動運転の重要な要素である。
本稿では,自動運転車のリアルタイム認識における検出品質と遅延の最良のトレードオフについて検討する。
我々は,局所的な検出性能を向上しつつ,適切な圧縮を伴うモデルをクラウド上でリアルタイムに実行可能であることを示す。
論文 参考訳(メタデータ) (2023-08-09T21:39:10Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Teaching BERT to Wait: Balancing Accuracy and Latency for Streaming
Disfluency Detection [3.884530687475798]
BERTをベースとしたシーケンスタギングモデルは,リアルタイムに分散を検出することができる。
モデルは、インクリメンタルな拡散検出に関する最近の研究と比較して、最先端のレイテンシと安定性のスコアを得る。
論文 参考訳(メタデータ) (2022-05-02T02:13:24Z) - Towards Streaming Perception [70.68520310095155]
本稿では、リアルタイムオンライン知覚のための単一のメトリクスにレイテンシと精度を協調的に統合するアプローチを提案する。
この指標の背後にある重要な洞察は、瞬間ごとに認識スタック全体の出力を共同で評価することである。
本稿では,都市ビデオストリームにおけるオブジェクト検出とインスタンスセグメンテーションの具体的タスクに注目し,高品質で時間依存的なアノテーションを備えた新しいデータセットを寄贈する。
論文 参考訳(メタデータ) (2020-05-21T01:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。