論文の概要: Streaming Object Detection on Fisheye Cameras for Automatic Parking
- arxiv url: http://arxiv.org/abs/2305.14713v2
- Date: Tue, 29 Aug 2023 01:10:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 18:19:47.314193
- Title: Streaming Object Detection on Fisheye Cameras for Automatic Parking
- Title(参考訳): 自動駐車のための魚眼カメラのストリーミング物体検出
- Authors: Yixiong Yan, Liangzhu Cheng, Yongxu Li, Xinjuan Tuo
- Abstract要約: 本稿では,未来を予測し,時間ラグ問題を緩和するデュアルフロー認識モジュールを備えたリアルタイム検出フレームワークを提案する。
標準バウンディングボックスは、魚眼カメラの強い半径歪みのため、魚眼カメラ画像の物体には適さない。
本稿では,物体の簡易かつ高精度な表現法であるボックスの角度を回帰する新しい周期的角度損失関数を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fisheye cameras are widely employed in automatic parking, and the video
stream object detection (VSOD) of the fisheye camera is a fundamental
perception function to ensure the safe operation of vehicles. In past research
work, the difference between the output of the deep learning model and the
actual situation at the current moment due to the existence of delay of the
perception system is generally ignored. But the environment will inevitably
change within the delay time which may cause a potential safety hazard. In this
paper, we propose a real-time detection framework equipped with a dual-flow
perception module (dynamic and static flows) that can predict the future and
alleviate the time-lag problem. Meanwhile, we use a new scheme to evaluate
latency and accuracy. The standard bounding box is unsuitable for the object in
fisheye camera images due to the strong radial distortion of the fisheye camera
and the primary detection objects of parking perception are vehicles and
pedestrians, so we adopt the rotate bounding box and propose a new periodic
angle loss function to regress the angle of the box, which is the simple and
accurate representation method of objects. The instance segmentation ground
truth is used to supervise the training. Experiments demonstrate the
effectiveness of our approach. Code is released at:
https://gitee.com/hiyanyx/fisheye-streaming-perception.
- Abstract(参考訳): 魚眼カメラは自動駐車に広く採用されており、魚眼カメラの映像ストリームオブジェクト検出(VSOD)は車両の安全な運転を保証するための基本的な認識機能である。
過去の研究では、ディープラーニングモデルの出力と、知覚系の遅延の存在による現在の状況との差は一般的に無視されている。
しかし、環境は遅延時間内に必然的に変化し、潜在的な安全リスクを引き起こす可能性がある。
本稿では,未来を予測し,タイムラグ問題を緩和できるデュアルフロー知覚モジュール(ダイナミックフローと静的フロー)を備えたリアルタイム検出フレームワークを提案する。
一方,レイテンシと精度を評価するため,新しい手法を用いる。
魚眼カメラの強い放射歪による魚眼カメラ画像の物体には不向きであり、パーキング知覚の一次検出対象は車と歩行者であり、回転境界ボックスを採用し、簡易かつ正確な対象の表現法である箱の角度を後退させる新たな周期角損失関数を提案する。
インスタンスセグメンテーション基底真理は、トレーニングを監督するために使用される。
実験は我々のアプローチの有効性を示す。
コードは、https://gitee.com/hiyanyx/fisheye-streaming-perceptionでリリースされる。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - ARPD: Anchor-free Rotation-aware People Detection using Topview Fisheye
Camera [3.0868856870169625]
本研究では,魚眼画像中の任意回転者を検知する単一段アンカーフリー完全畳み込みネットワークARPDを提案する。
提案手法は最先端のアルゴリズムと非常に高速に動作しながら競合する。
論文 参考訳(メタデータ) (2022-01-25T05:49:50Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Fisheye Lens Camera based Autonomous Valet Parking System [3.461121828373003]
本稿では,最も普及しているセンサであるカメラのみを利用した,効率的な自動駐車システムを提案する。
ピンホールカメラに比べて視野が広い魚眼カメラを使用しています。
論文 参考訳(メタデータ) (2021-04-27T11:36:03Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Spherical formulation of moving object geometric constraints for
monocular fisheye cameras [0.0]
自律走行に使用される魚眼カメラの移動物体検出アルゴリズムを提案する。
直交画像の3つの制約を球面座標に再構成する。
論文 参考訳(メタデータ) (2020-03-06T14:59:38Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。