論文の概要: Robust Roadside Perception for Autonomous Driving: an Annotation-free
Strategy with Synthesized Data
- arxiv url: http://arxiv.org/abs/2306.17302v1
- Date: Thu, 29 Jun 2023 21:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 14:04:14.071546
- Title: Robust Roadside Perception for Autonomous Driving: an Annotation-free
Strategy with Synthesized Data
- Title(参考訳): 自律走行のためのロバストな路面認識:合成データを用いた注釈なし戦略
- Authors: Rusheng Zhang, Depu Meng, Lance Bassett, Shengyin Shen, Zhengxia Zou,
Henry X. Liu
- Abstract要約: 本稿では,データ不足問題(Data-insufficiency problem)の最も重要な課題の1つに焦点をあてる。
高品質なラベル付き道路側センサデータの多様性の欠如は、現在の道路側認識システムのロバスト性、低転送性をもたらす。
本稿では,Augmented Reality and Generative Adversarial Networkを用いた学習データの作成により,この問題に対処する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 16.216778979163703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, with the rapid development in vehicle-to-infrastructure
communication technologies, the infrastructure-based, roadside perception
system for cooperative driving has become a rising field. This paper focuses on
one of the most critical challenges - the data-insufficiency problem. The
lacking of high-quality labeled roadside sensor data with high diversity leads
to low robustness, and low transfer-ability of current roadside perception
systems. In this paper, a novel approach is proposed to address this problem by
creating synthesized training data using Augmented Reality and Generative
Adversarial Network. This method creates synthesized dataset that is capable of
training or fine-tuning a roadside perception detector which is robust to
different weather and lighting conditions, or to adapt a new deployment
location. We validate our approach at two intersections: Mcity intersection and
State St/Ellsworth Rd roundabout. Our experiments show that (1) the detector
can achieve good performance in all conditions when trained on synthesized data
only, and (2) the performance of an existing detector trained with labeled data
can be enhanced by synthesized data in harsh conditions.
- Abstract(参考訳): 近年,車両間通信技術の急速な発展に伴い,協調運転のためのインフラベース道路側認識システムが注目されている。
本稿では、データ不足問題という最も重要な課題の1つに焦点を当てる。
高品質なラベル付き道路側センサデータの多様性の欠如は、現在の道路側認識システムのロバスト性、低転送性をもたらす。
本稿では,Augmented Reality and Generative Adversarial Networkを用いた学習データの作成により,この問題に対処する新しい手法を提案する。
この方法は、異なる気象や照明条件にロバストな路側知覚検出器を訓練または微調整することができる合成データセットを作成し、新しい展開位置を適応させる。
mcity 交差点と state st/ellsworth rd roundabout という2つの交差点でアプローチを検証する。
実験の結果,(1) 合成データのみを学習した場合の全ての条件において良好な性能が得られ,(2) ラベル付きデータで訓練した既存の検出器の性能は,厳しい条件下での合成データにより向上できることがわかった。
関連論文リスト
- Smart Infrastructure: A Research Junction [5.172393727004225]
本稿では,ドイツ・アシャッフェンブルクの公的な市内交差点に位置する視覚センサ技術を備えたインテリジェントな研究基盤について紹介する。
マルチビューカメラシステムは、交通状況を監視し、道路利用者の行動を知覚する。
このシステムは、データ生成の研究、新しいHADセンサーシステム、アルゴリズム、人工知能(AI)トレーニング戦略の評価に使用される。
論文 参考訳(メタデータ) (2023-07-12T14:04:12Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - SIND: A Drone Dataset at Signalized Intersection in China [24.177976559875066]
本稿では,中国天津市で典型的な2相信号化交差点を選定する。
パイプラインはSIND(Signalized Intersection)を構築するために設計されており、7種類の13,000以上のTPを含む7時間の録音を含む。
SINDは、トラヒックライト状態、モーションパラメータ、High Definition(HD)マップなど、より包括的な情報を提供する。
論文 参考訳(メタデータ) (2022-09-06T08:49:44Z) - Edge-Aided Sensor Data Sharing in Vehicular Communication Networks [8.67588704947974]
車両・車間通信と車両・車間通信を併用した車両ネットワークにおけるセンサデータ共有と融合を考察する。
本稿では、エッジサーバが車両からセンサ計測データを収集・キャッシュするBidirectional Feedback Noise Estimation (BiFNoE) 手法を提案する。
認識精度は平均80%向上し, アップリンクは12kbps, ダウンリンク帯域は28kbpsであった。
論文 参考訳(メタデータ) (2022-06-17T16:30:56Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。