論文の概要: Adversarial Appearance Learning in Augmented Cityscapes for Pedestrian Recognition in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2509.13507v1
- Date: Tue, 16 Sep 2025 20:12:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.636827
- Title: Adversarial Appearance Learning in Augmented Cityscapes for Pedestrian Recognition in Autonomous Driving
- Title(参考訳): 歩行者認識のための都市景観の対人学習
- Authors: Artem Savkin, Thomas Lapotre, Kevin Strauss, Uzair Akbar, Federico Tombari,
- Abstract要約: 自動運転分野では、合成データは、自動運転車が扱わなければならない特定の交通シナリオをカバーするために不可欠である。
本稿では、歩行者認識を改善するために、VRUでカスタムトラフィックシナリオを生成するためにデータ拡張をデプロイする。
- 参考スコア(独自算出の注目度): 39.61652266573024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the autonomous driving area synthetic data is crucial for cover specific traffic scenarios which autonomous vehicle must handle. This data commonly introduces domain gap between synthetic and real domains. In this paper we deploy data augmentation to generate custom traffic scenarios with VRUs in order to improve pedestrian recognition. We provide a pipeline for augmentation of the Cityscapes dataset with virtual pedestrians. In order to improve augmentation realism of the pipeline we reveal a novel generative network architecture for adversarial learning of the data-set lighting conditions. We also evaluate our approach on the tasks of semantic and instance segmentation.
- Abstract(参考訳): 自動運転分野では、合成データは、自動運転車が扱わなければならない特定の交通シナリオをカバーするために不可欠である。
このデータは一般的に、合成ドメインと実際のドメインの間にドメインギャップをもたらす。
本稿では、歩行者認識を改善するために、VRUでカスタムトラフィックシナリオを生成するためにデータ拡張をデプロイする。
仮想歩行者によるCityscapesデータセットの拡張パイプラインを提供する。
パイプラインの強化リアリズムを改善するために,データセット照明条件の逆学習のための新たな生成ネットワークアーキテクチャを明らかにする。
また、セマンティックとインスタンスセグメンテーションのタスクに対する我々のアプローチを評価した。
関連論文リスト
- Augmented Reality based Simulated Data (ARSim) with multi-view consistency for AV perception networks [47.07188762367792]
ARSimは3次元合成オブジェクトを用いた実写多視点画像データの拡張を目的としたフレームワークである。
実データを用いて簡易な仮想シーンを構築し,その内部に戦略的に3D合成資産を配置する。
結果として得られたマルチビュー一貫性のあるデータセットは、自動運転車のためのマルチカメラ知覚ネットワークのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-03-22T17:49:11Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Foresee What You Will Learn: Data Augmentation for Domain Generalization
in Non-Stationary Environments [14.344721944207599]
既存のドメインの一般化は、目に見えないドメインでもうまく機能する一般化可能なモデルを学ぶことを目的としている。
本稿では,DDA(Directional Domain Augmentation)を提案する。DDA(Directional Domain Augmentation)は,ソースデータをドメイントランスフォーマーを介して拡張としてマッピングすることで,未確認のターゲット特徴をシミュレートする。
提案手法は, 合成データセットと実世界のデータセットの両方で評価し, 実験結果から, 提案手法が既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-01-19T01:51:37Z) - CARNet: A Dynamic Autoencoder for Learning Latent Dynamics in Autonomous
Driving Tasks [11.489187712465325]
自律運転システムは、世界の抽象的な記述を形成するために、様々なセンサから収集した情報を効果的に活用すべきである。
オートエンコーダのようなディープラーニングモデルは、受信データのストリームからコンパクトな潜在表現を学習できるため、その目的のために使用できる。
この研究は、自動エンコーダとリカレントニューラルネットワークを組み合わせて現在の潜伏表現を学習する、複合dynAmicautoencodeRネットワークアーキテクチャであるCARNetを提案する。
論文 参考訳(メタデータ) (2022-05-18T04:15:42Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Attention-based Adversarial Appearance Learning of Augmented Pedestrians [49.25430012369125]
本稿では,歩行者認識タスクのための現実的なデータを合成する手法を提案する。
本手法は, 対向的損失によって駆動される注意機構を用いて, ドメインの相違を学習する。
提案手法はこのような不一致に対して頑健であり,視覚的リアリズムと意味的整合性の両方を明らかにする。
論文 参考訳(メタデータ) (2021-07-06T15:27:00Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。