論文の概要: Real-time Streaming Perception System for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2107.14388v1
- Date: Fri, 30 Jul 2021 01:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-02 19:19:29.746502
- Title: Real-time Streaming Perception System for Autonomous Driving
- Title(参考訳): 自律走行のためのリアルタイムストリーミング知覚システム
- Authors: Yongxiang Gu, Qianlei Wang, Xiaolin Qin
- Abstract要約: 本稿では,ストリーミング知覚チャレンジの第2位であるリアルタイム蒸気知覚システムについて述べる。
絶対的なパフォーマンスに重点を置いている従来のオブジェクト検出の課題とは異なり、ストリーミング認識タスクは精度とレイテンシのバランスを取る必要がある。
Argoverse-HDテストセットでは,必要なハードウェアで33.2ストリーミングAP(オーガナイザが検証した34.6ストリーミングAP)を実現する。
- 参考スコア(独自算出の注目度): 2.6058660721533187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nowadays, plenty of deep learning technologies are being applied to all
aspects of autonomous driving with promising results. Among them, object
detection is the key to improve the ability of an autonomous agent to perceive
its environment so that it can (re)act. However, previous vision-based object
detectors cannot achieve satisfactory performance under real-time driving
scenarios. To remedy this, we present the real-time steaming perception system
in this paper, which is also the 2nd Place solution of Streaming Perception
Challenge (Workshop on Autonomous Driving at CVPR 2021) for the detection-only
track. Unlike traditional object detection challenges, which focus mainly on
the absolute performance, streaming perception task requires achieving a
balance of accuracy and latency, which is crucial for real-time autonomous
driving. We adopt YOLOv5 as our basic framework, data augmentation,
Bag-of-Freebies, and Transformer are adopted to improve streaming object
detection performance with negligible extra inference cost. On the Argoverse-HD
test set, our method achieves 33.2 streaming AP (34.6 streaming AP verified by
the organizer) under the required hardware. Its performance significantly
surpasses the fixed baseline of 13.6 (host team), demonstrating the
potentiality of application.
- Abstract(参考訳): 現在、多くのディープラーニング技術が、将来性のある結果で自動運転のあらゆる側面に適用されている。
その中でも、オブジェクト検出は、自律エージェントが環境を知覚し、(再)作用できる能力を向上させるための鍵である。
しかし、従来の視覚に基づく物体検出器は、リアルタイム運転シナリオ下では満足な性能を達成できない。
そこで,本稿では,検出のみのトラックに対して,ストリーミング知覚チャレンジ(cvpr 2021における自律運転)の2位となるリアルタイムスチーム知覚システムを提案する。
絶対的なパフォーマンスに重点を置いている従来のオブジェクト検出の課題とは異なり、ストリーミング認識タスクでは、リアルタイムの自律運転に不可欠な精度とレイテンシのバランスを達成する必要がある。
我々はYOLOv5を基本フレームワークとして採用し、データ拡張、Bag-of-Freebies、Transformerを採用し、ストリーミングオブジェクト検出性能を無視できる余分な推論コストで向上させる。
Argoverse-HDテストセットでは,必要なハードウェアで33.2ストリーミングAP(オーガナイザが検証した34.6ストリーミングAP)を実現する。
そのパフォーマンスは13.6(ホストチーム)の固定ベースラインを大幅に上回り、アプリケーションの潜在性を示している。
関連論文リスト
- YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - Real-time Traffic Object Detection for Autonomous Driving [5.780326596446099]
現代のコンピュータビジョン技術は、効率よりも精度を優先する傾向がある。
既存の物体検出器はリアルタイムには程遠い。
リアルタイム要件を取り入れた,より適切な代替案を提案する。
論文 参考訳(メタデータ) (2024-01-31T19:12:56Z) - DADFNet: Dual Attention and Dual Frequency-Guided Dehazing Network for
Video-Empowered Intelligent Transportation [79.18450119567315]
逆の気象条件は、ビデオベースの交通監視に深刻な課題をもたらす。
本稿では,リアルタイム視認性向上のための2つの注意と2つの周波数誘導型脱ハージングネットワーク(DADFNet)を提案する。
論文 参考訳(メタデータ) (2023-04-19T11:55:30Z) - Are We Ready for Vision-Centric Driving Streaming Perception? The ASAP
Benchmark [23.872360763782037]
ASAPは、自律運転における視覚中心の知覚のオンラインパフォーマンスを評価する最初のベンチマークである。
12Hzの原画像の高フレームレートラベルを生成するためのアノテーション拡張パイプラインを提案する。
ASAPベンチマークでは、モデルランクが異なる制約の下で変化することを示す総合的な実験結果が示されている。
論文 参考訳(メタデータ) (2022-12-17T16:32:15Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - YOLOP: You Only Look Once for Panoptic Driving Perception [21.802146960999394]
本稿では,交通物体検出,乾燥領域分割,車線検出を同時に行うパノプティカル駆動認識ネットワーク(YOLOP)を提案する。
特徴抽出のための1つのエンコーダと、特定のタスクを処理する3つのデコーダで構成されている。
私たちのモデルは、BDD100Kデータセットで非常によく機能し、正確性とスピードの観点から、3つのタスクすべてで最先端の処理を実現しています。
論文 参考訳(メタデータ) (2021-08-25T14:19:42Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。