論文の概要: A Study on Quantifying Sim2Real Image Gap in Autonomous Driving
Simulations Using Lane Segmentation Attention Map Similarity
- arxiv url: http://arxiv.org/abs/2306.10491v1
- Date: Sun, 18 Jun 2023 07:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:23:44.512047
- Title: A Study on Quantifying Sim2Real Image Gap in Autonomous Driving
Simulations Using Lane Segmentation Attention Map Similarity
- Title(参考訳): レーン分割注意マップ類似性を用いた自律走行シミュレーションにおけるSim2Real画像ギャップの定量化に関する研究
- Authors: Seongjeong Park, Jinu Pahk, Lennart Lorenz Freimuth Jahn, Yongseob
Lim, Jinung An, Gyeungho Choi
- Abstract要約: 現在、シミュレーション画像のリアリズムを定量的に評価するための合意された基準は存在しない。
本稿では,ENet-SADの自己注意蒸留プロセスから注目マップを用いて,シミュレーション道路画像の類似度を測定する指標を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving simulations require highly realistic images. Our
preliminary study found that when the CARLA Simulator image was made more like
reality by using DCLGAN, the performance of the lane recognition model improved
to levels comparable to real-world driving. It was also confirmed that the
vehicle's ability to return to the center of the lane after deviating from it
improved significantly. However, there is currently no agreed-upon metric for
quantitatively evaluating the realism of simulation images. To address this
issue, based on the idea that FID (Fr\'echet Inception Distance) measures the
feature vector distribution distance using a pre-trained model, this paper
proposes a metric that measures the similarity of simulation road images using
the attention map from the self-attention distillation process of ENet-SAD.
Finally, this paper verified the suitability of the measurement method by
applying it to the image of the CARLA map that implemented a realworld
autonomous driving test road.
- Abstract(参考訳): 自動運転シミュレーションは非常に現実的な画像を必要とする。
予備研究では,DCLGANを用いてCARLAシミュレータ画像がより現実に近いものになると,車線認識モデルの性能は現実の運転に匹敵するレベルまで向上した。
また、車両が車線から外れた後に車線の中心に戻る能力が大幅に改善されたことも確認された。
しかし,シミュレーション画像のリアリズムを定量的に評価するための合意基準は現時点では存在しない。
そこで本研究では,fid (fr\'echet inception distance) が事前学習モデルを用いて特徴ベクトル分布距離を測定することを前提として,enet-sadの自己注意蒸留過程からの注意マップを用いてシミュレーション道路画像の類似度を測定する指標を提案する。
最後に,実世界の自律走行試験道路を実装したカルラマップの画像に適用することにより,計測方法の適合性を検証した。
関連論文リスト
- Camera Perspective Transformation to Bird's Eye View via Spatial Transformer Model for Road Intersection Monitoring [0.09208007322096533]
道路交差点の監視と制御の研究は、しばしば鳥の目視(BEV)シミュレータを利用する。
実際の交通状況では、シミュレーターと同様のBEVを達成するには、ドローンや特定のセンサーを配置する必要がある。
道路交差点の1台のカメラの視点をBEVに変換する新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2024-08-10T15:01:19Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Perception Imitation: Towards Synthesis-free Simulator for Autonomous
Vehicles [45.27200446670184]
本研究では,ある知覚モデルの結果をシミュレートする知覚模倣手法を提案し,データ合成を伴わない自律走行シミュレータの新たな経路について議論する。
実験により,本手法は学習に基づく知覚モデルの振る舞いをモデル化する上で有効であることが示され,提案手法のシミュレーション経路にさらにスムーズに適用可能である。
論文 参考訳(メタデータ) (2023-04-19T01:27:02Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Sim-to-Real via Sim-to-Seg: End-to-end Off-road Autonomous Driving
Without Real Data [56.49494318285391]
我々は、オフロード自動運転の視覚的現実的ギャップを横断するRCANを再想像するSim2Segを紹介する。
これは、ランダム化されたシミュレーション画像をシミュレートされたセグメンテーションと深さマップに変換する学習によって行われる。
これにより、シミュレーションでエンドツーエンドのRLポリシーをトレーニングし、現実世界に直接デプロイできます。
論文 参考訳(メタデータ) (2022-10-25T17:50:36Z) - A Multi-Layered Approach for Measuring the Simulation-to-Reality Gap of
Radar Perception for Autonomous Driving [0.0]
仮想テストに頼るためには、採用されているセンサーモデルを検証する必要がある。
レーダ知覚のこのシミュレーションと現実のギャップを測定するための音響手法は存在しない。
提案手法の有効性を,詳細なセンサモデルによる評価により検証した。
論文 参考訳(メタデータ) (2021-06-15T18:51:39Z) - SimNet: Learning Reactive Self-driving Simulations from Real-world
Observations [10.035169936164504]
運転体験を現実的にシミュレートできるエンドツーエンドのトレーニング可能な機械学習システムを提案する。
これは、高価で時間を要する道路テストに頼ることなく、自動運転システムのパフォーマンスの検証に使用できる。
論文 参考訳(メタデータ) (2021-05-26T05:14:23Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Sim-to-real reinforcement learning applied to end-to-end vehicle control [0.0]
本研究では車線追従や衝突回避といった車両制御問題のエンドツーエンド強化学習について検討する。
我々の制御ポリシーでは、実際の2車線の道路の右車線を追従するために小型ロボットを制御できますが、その訓練はシミュレーションでのみ行われました。
論文 参考訳(メタデータ) (2020-12-14T12:30:47Z) - Testing the Safety of Self-driving Vehicles by Simulating Perception and
Prediction [88.0416857308144]
センサシミュレーションは高価であり,領域ギャップが大きいため,センサシミュレーションに代わる方法を提案する。
我々は、自動運転車の知覚と予測システムの出力を直接シミュレートし、現実的な動き計画テストを可能にする。
論文 参考訳(メタデータ) (2020-08-13T17:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。