論文の概要: TigAug: Data Augmentation for Testing Traffic Light Detection in Autonomous Driving Systems
- arxiv url: http://arxiv.org/abs/2507.05932v1
- Date: Tue, 08 Jul 2025 12:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.039854
- Title: TigAug: Data Augmentation for Testing Traffic Light Detection in Autonomous Driving Systems
- Title(参考訳): TigAug: 自動運転システムにおける交通信号検出のためのデータ拡張
- Authors: You Lu, Dingji Wang, Kaifeng Huang, Bihuan Chen, Xin Peng,
- Abstract要約: 本稿では,自動走行システムにおける信号検出モデルをテストするために,ラベル付き信号画像を自動的に拡張するTigAugを提案し,実装する。
我々は、変換特異的な変成関係により、交通信号検出モデルの誤動作を検出するために、拡張画像を使用する。
- 参考スコア(独自算出の注目度): 5.921277031092613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous vehicle technology has been developed in the last decades with recent advances in sensing and computing technology. There is an urgent need to ensure the reliability and robustness of autonomous driving systems (ADSs). Despite the recent achievements in testing various ADS modules, little attention has been paid on the automated testing of traffic light detection models in ADSs. A common practice is to manually collect and label traffic light data. However, it is labor-intensive, and even impossible to collect diverse data under different driving environments. To address these problems, we propose and implement TigAug to automatically augment labeled traffic light images for testing traffic light detection models in ADSs. We construct two families of metamorphic relations and three families of transformations based on a systematic understanding of weather environments, camera properties, and traffic light properties. We use augmented images to detect erroneous behaviors of traffic light detection models by transformation-specific metamorphic relations, and to improve the performance of traffic light detection models by retraining. Large-scale experiments with four state-of-the-art traffic light detection models and two traffic light datasets have demonstrated that i) TigAug is effective in testing traffic light detection models, ii) TigAug is efficient in synthesizing traffic light images, and iii) TigAug generates traffic light images with acceptable naturalness.
- Abstract(参考訳): 自動運転車技術は、センサーとコンピューティング技術の最近の進歩により、ここ数十年で開発されてきた。
自律運転システム(ADS)の信頼性と堅牢性を確保するためには、緊急に必要である。
近年、様々なADSモジュールのテストが達成されているが、ADSにおける交通信号検出モデルの自動テストにはほとんど注意が払われていない。
一般的には、手動で信号データの収集とラベル付けを行う。
しかし、労働集約的であり、様々な運転環境下で多様なデータを収集することは不可能である。
このような問題に対処するため,ADSにおける信号検出モデルをテストするために,ラベル付き信号画像を自動的に拡張するTigAugを提案し,実装する。
気象環境, カメラ特性, 交通光特性の系統的理解に基づいて, 変成関係の2つのファミリーと変換の3つのファミリーを構築した。
本研究では,交通光検出モデルの誤動作を変換特異的な変成関係により検出し,再学習による交通光検出モデルの性能向上を図る。
4つの最先端トラヒック光検出モデルと2つのトラヒック光データセットによる大規模実験が実証されている。
一)TigAugは、交通信号検出モデルをテストするのに有効である。
二 TigAugは、交通信号画像の合成に効率的であること。
三 TigAugは、自然に許容できる交通光画像を生成する。
関連論文リスト
- A Dynamic Transformer Network for Vehicle Detection [57.4144097001218]
車両検出のための動的トランスフォーマーネットワーク(DTNet)を提案する。
DTNetは動的畳み込みを利用してディープネットワークを誘導し、重量を動的に生成し、得られた検出器の適応性を高める。
画像アカウントにおける差の欠点を克服するため、変換変分畳み込みは、取得した車両検出構造情報を洗練するために、空間的位置情報に依存する。
論文 参考訳(メタデータ) (2025-06-03T11:29:35Z) - Accurate Automatic 3D Annotation of Traffic Lights and Signs for Autonomous Driving [0.0]
交通信号や道路標識などの交通管理対象の3D検出は、自動運転車にとって不可欠である。
本稿では,信号機や標識の3次元バウンディングボックスアノテーションを自動生成する手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T09:50:03Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - TL-GAN: Improving Traffic Light Recognition via Data Synthesis for
Autonomous Driving [8.474436072102844]
本稿では,交通信号の自律運転における音声認識を改善するために,レアクラスのデータを合成するための新しい交通信号生成手法TL-GANを提案する。
画像合成段階では、条件付き生成により、生成したトラフィック光画像の色を完全に制御できる。
シーケンス組み立て段階では、現実的で多様なトラフィック光シーケンスを合成するためのスタイル混合および適応テンプレートを設計する。
論文 参考訳(メタデータ) (2022-03-28T18:12:35Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Deep traffic light detection by overlaying synthetic context on
arbitrary natural images [49.592798832978296]
深部交通光検出器のための人工的な交通関連トレーニングデータを生成する手法を提案する。
このデータは、任意の画像背景の上に偽のトラフィックシーンをブレンドするために、基本的な非現実的なコンピュータグラフィックスを用いて生成される。
また、交通信号データセットの本質的なデータ不均衡問題にも対処し、主に黄色い状態のサンプルの少なさによって引き起こされる。
論文 参考訳(メタデータ) (2020-11-07T19:57:22Z) - Traffic Signs Detection and Recognition System using Deep Learning [0.0]
本稿では,交通標識をリアルタイムに検出・認識するためのアプローチについて述べる。
マルチオブジェクト検出システムの最先端技術を用いて,交通信号検出問題に取り組む。
この論文の焦点は、F-RCNN Inception v2とTiny YOLO v2が最高の結果を得たときのものである。
論文 参考訳(メタデータ) (2020-03-06T14:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。