論文の概要: Latency-aware Road Anomaly Segmentation in Videos: A Photorealistic
Dataset and New Metrics
- arxiv url: http://arxiv.org/abs/2401.04942v1
- Date: Wed, 10 Jan 2024 05:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:31:41.032024
- Title: Latency-aware Road Anomaly Segmentation in Videos: A Photorealistic
Dataset and New Metrics
- Title(参考訳): ビデオにおける遅延対応道路異常セグメンテーション:フォトリアリスティックデータセットと新しいメトリクス
- Authors: Beiwen Tian, Huan-ang Gao, Leiyao Cui, Yupeng Zheng, Lan Luo, Baofeng
Wang, Rong Zhi, Guyue Zhou, Hao Zhao
- Abstract要約: 自動運転のための最初のビデオ異常セグメンテーションデータセットをコントリビュートする。
我々のデータセットは、60FPSのフレームレートで12万の高解像度フレームで構成され、7つの異なる町で記録されている。
時間的一貫性とレイテンシ対応のストリーミング精度の2つの新しい指標に注目します。
- 参考スコア(独自算出の注目度): 15.09892709945568
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the past several years, road anomaly segmentation is actively explored in
the academia and drawing growing attention in the industry. The rationale
behind is straightforward: if the autonomous car can brake before hitting an
anomalous object, safety is promoted. However, this rationale naturally calls
for a temporally informed setting while existing methods and benchmarks are
designed in an unrealistic frame-wise manner. To bridge this gap, we contribute
the first video anomaly segmentation dataset for autonomous driving. Since
placing various anomalous objects on busy roads and annotating them in every
frame are dangerous and expensive, we resort to synthetic data. To improve the
relevance of this synthetic dataset to real-world applications, we train a
generative adversarial network conditioned on rendering G-buffers for
photorealism enhancement. Our dataset consists of 120,000 high-resolution
frames at a 60 FPS framerate, as recorded in 7 different towns. As an initial
benchmarking, we provide baselines using latest supervised and unsupervised
road anomaly segmentation methods. Apart from conventional ones, we focus on
two new metrics: temporal consistency and latencyaware streaming accuracy. We
believe the latter is valuable as it measures whether an anomaly segmentation
algorithm can truly prevent a car from crashing in a temporally informed
setting.
- Abstract(参考訳): 過去数年間、学界では道路異常の区分が積極的に検討され、業界で注目を集めている。
自動運転車が異常な物体にぶつかる前にブレーキを踏むことができれば、安全性が向上する。
しかし、この理論的根拠は、既存のメソッドやベンチマークが非現実的なフレーム単位で設計されている間、時間的に情報を与える設定を自然に要求する。
このギャップを埋めるために、自動運転のための最初のビデオ異常セグメンテーションデータセットを提供する。
道路に異常な物体を配置し,各フレームに注釈を付けるのは危険で費用がかかるため,合成データを利用する。
この合成データセットの現実世界への適用性を向上させるために,光現実性向上のためのGバッファのレンダリングを条件とした生成逆ネットワークを訓練する。
我々のデータセットは、60FPSのフレームレートで12万の高解像度フレームで構成され、7つの異なる町で記録されている。
初期ベンチマークとして、最新の教師付きおよび教師なし道路異常セグメンテーション手法を用いてベースラインを提供する。
従来とは別として、時間的一貫性とレイテンシ対応ストリーミングの精度の2つの新しい指標に注目します。
我々は、異常セグメンテーションアルゴリズムが、時間的に情報を得た状態で車がクラッシュすることを防ぐことができるかどうかを測定するため、後者は価値があると信じている。
関連論文リスト
- Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Leveraging the Edge and Cloud for V2X-Based Real-Time Object Detection
in Autonomous Driving [0.0]
環境認識は自動運転の重要な要素である。
本稿では,自動運転車のリアルタイム認識における検出品質と遅延の最良のトレードオフについて検討する。
我々は,局所的な検出性能を向上しつつ,適切な圧縮を伴うモデルをクラウド上でリアルタイムに実行可能であることを示す。
論文 参考訳(メタデータ) (2023-08-09T21:39:10Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Real-Time Driver Monitoring Systems through Modality and View Analysis [28.18784311981388]
ドライバーの気晴らしが道路事故の主要な原因であることが知られている。
State-of-the-artメソッドはレイテンシを無視しながら精度を優先する。
本稿では,ビデオフレーム間の時間的関係を無視した時間効率な検出モデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:22:41Z) - Distortion-Aware Network Pruning and Feature Reuse for Real-time Video
Segmentation [49.17930380106643]
本稿では,リアルタイム視覚タスクのスキップ接続によるアーキテクチャの高速化を目的とした新しいフレームワークを提案する。
具体的には、各フレームの到着時に、前のフレームから特徴を変換し、特定の空間的ビンで再利用する。
次に、現在のフレームの領域におけるバックボーンネットワークの部分計算を行い、現在のフレームと前のフレームの時間差をキャプチャする。
論文 参考訳(メタデータ) (2022-06-20T07:20:02Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Predicting Pedestrian Crossing Intention with Feature Fusion and
Spatio-Temporal Attention [0.0]
歩行者の交差の意図は都市運転のためにリアルタイムで認識されるべきです。
最近の研究は、このタスクに視覚ベースのディープニューラルネットワークモデルを使用することの可能性を示している。
本研究は,歩行者横断意図予測において,本質的に異なる時間的特徴を融合するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-12T14:10:25Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Decoupled Appearance and Motion Learning for Efficient Anomaly Detection
in Surveillance Video [9.80717374118619]
我々は、純粋に教師なしの方法で正常な振る舞いを学習する新しいニューラルネットワークアーキテクチャを提案する。
我々のモデルは、関連するアプローチの16倍から45倍のフレームを毎秒処理できる。
論文 参考訳(メタデータ) (2020-11-10T11:40:06Z) - Towards Anomaly Detection in Dashcam Videos [9.558392439655012]
本稿では,ディープラーニングによるデータ駆動型異常検出のアイデアをダッシュカムビデオに適用することを提案する。
トラックダッシュカムビデオ、すなわちRetroTrucksの大規模で多様なデータセットを提示する。
本研究では, (i) クラス分類損失と (ii) 再構成に基づく損失をRetroTruckの異常検出に適用する。
論文 参考訳(メタデータ) (2020-04-11T00:10:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。