論文の概要: Efficient Fusion and Task Guided Embedding for End-to-end Autonomous Driving
- arxiv url: http://arxiv.org/abs/2407.02878v1
- Date: Wed, 3 Jul 2024 07:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 15:15:24.742164
- Title: Efficient Fusion and Task Guided Embedding for End-to-end Autonomous Driving
- Title(参考訳): エンド・ツー・エンド自動運転における効率的な核融合とタスクガイド埋め込み
- Authors: Yipin Guo, Yilin Lang, Qinyuan Ren,
- Abstract要約: 我々は,センサ融合と安全リスク予測の課題に対処するため,EfficientFuserというコンパクトで強力なソリューションを導入した。
CARLAシミュレーションプラットフォームで評価されたEfficientFuserは、パラメータの37.6%しか利用せず、顕著な効率性を示している。
安全スコアは、その有効性と、自律運転システムへの実用的展開の可能性を示す主要な安全性向上手法に近づいた。
- 参考スコア(独自算出の注目度): 1.3149617027696827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To address the challenges of sensor fusion and safety risk prediction, contemporary closed-loop autonomous driving neural networks leveraging imitation learning typically require a substantial volume of parameters and computational resources to run neural networks. Given the constrained computational capacities of onboard vehicular computers, we introduce a compact yet potent solution named EfficientFuser. This approach employs EfficientViT for visual information extraction and integrates feature maps via cross attention. Subsequently, it utilizes a decoder-only transformer for the amalgamation of multiple features. For prediction purposes, learnable vectors are embedded as tokens to probe the association between the task and sensor features through attention. Evaluated on the CARLA simulation platform, EfficientFuser demonstrates remarkable efficiency, utilizing merely 37.6% of the parameters and 8.7% of the computations compared to the state-of-the-art lightweight method with only 0.4% lower driving score, and the safety score neared that of the leading safety-enhanced method, showcasing its efficacy and potential for practical deployment in autonomous driving systems.
- Abstract(参考訳): センサフュージョンと安全リスク予測の課題に対処するためには、模倣学習を活用する現代のクローズドループ自律走行ニューラルネットワークは、ニューラルネットワークを実行するために大量のパラメータと計算資源を必要とするのが普通である。
搭載車載コンピュータの制約された計算能力を考えると、EfficientFuserというコンパクトで強力なソリューションを導入する。
このアプローチでは、視覚情報抽出にEfficientViTを使用し、クロスアテンションを介して特徴マップを統合する。
その後、デコーダのみの変換器を使用して、複数の特徴のアマルガメーションを行う。
予測のために、学習可能なベクトルをトークンとして埋め込み、注意を通してタスクとセンサの特徴の関係を探索する。
CARLAシミュレーションプラットフォームで評価されたEfficientFuserは、パラメータの37.6%と計算の8.7%しか使用せず、運転スコアがわずか0.4%低い最先端の軽量な方法と比較して、顕著な効率性を示し、安全スコアは主要な安全向上手法に近づき、自動運転システムの実用的展開の有効性と可能性を示している。
関連論文リスト
- Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - 3D Object Visibility Prediction in Autonomous Driving [6.802572869909114]
本稿では,新しい属性とその対応するアルゴリズムである3Dオブジェクトの可視性について述べる。
この属性の提案とその計算戦略は、下流タスクの能力を拡大することを目的としている。
論文 参考訳(メタデータ) (2024-03-06T13:07:42Z) - Autosen: improving automatic wifi human sensing through cross-modal
autoencoder [56.44764266426344]
WiFiによる人間のセンシングは、人間の活動を認識する上での低コストでプライバシー上の利点として高く評価されている。
ラベル付きデータなしで自己教師付き学習を可能にすることを目的とした従来のクロスモーダル手法は、振幅-位相の組み合わせから意味のある特徴を抽出するのに苦労する。
我々は、従来のアプローチから外れた革新的な自動WiFiセンシングソリューションであるAutoSenを紹介する。
論文 参考訳(メタデータ) (2024-01-08T19:50:02Z) - Reducing the False Positive Rate Using Bayesian Inference in Autonomous
Driving Perception [1.1624569521079429]
本稿では, 偽陽性率(FPR)の低減を目的とした多感覚・多モーダリティ手法を用いて, 物体認識について検討する。
FPRの低減は、物体の誤分類が事故を引き起こす可能性があるため、認識システムにおいてますます重要になる。
本研究では、ガウス核密度推定から累積分布関数としての確率関数と正規化ヒストグラムの累積関数としての事前確率を考慮し、ベイズ推定によるFPRの低減戦略を示す。
論文 参考訳(メタデータ) (2023-09-09T17:52:40Z) - Cognitive TransFuser: Semantics-guided Transformer-based Sensor Fusion
for Improved Waypoint Prediction [38.971222477695214]
RGB-LIDARベースのマルチタスク機能融合ネットワークであるCognitive TransFuserは、安全で完全な道路ナビゲーションのために、ベースラインネットワークを大幅に拡張し、超える。
提案したネットワークをCown05 Short と Town05 Long Benchmarkで広範囲な実験により検証し,44.2 FPSのリアルタイム推論時間を実現した。
論文 参考訳(メタデータ) (2023-08-04T03:59:10Z) - Penalty-Based Imitation Learning With Cross Semantics Generation Sensor
Fusion for Autonomous Driving [1.2749527861829049]
本稿では,複数の情報モダリティを統合するために,ペナルティに基づく模倣学習手法を提案する。
最新技術(SOTA)モデルであるInterFuserと比較して,運転スコアが12%以上増加していることが観察された。
本モデルでは, 推論速度を7倍に向上し, モデルサイズを約30%削減しながら, この性能向上を実現している。
論文 参考訳(メタデータ) (2023-03-21T14:29:52Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - FINETUNA: Fine-tuning Accelerated Molecular Simulations [5.543169726358164]
本稿では,原子系のシミュレーションを効率的かつ正確に高速化するためのオンライン能動的学習フレームワークを提案する。
事前学習されたモデルから事前情報を組み込む伝達学習法は、DFT計算の数を91%減らしてシミュレーションを加速する。
30個のベンチマーク吸着剤触媒系の実験により,事前学習したモデルから事前情報を組み込むトランスファー学習法がシミュレーションを加速し,DFT計算の数を91%削減した。
論文 参考訳(メタデータ) (2022-05-02T21:36:01Z) - Feeling of Presence Maximization: mmWave-Enabled Virtual Reality Meets
Deep Reinforcement Learning [76.46530937296066]
本稿では,無線モバイルユーザに対して,超信頼性でエネルギー効率のよいバーチャルリアリティ(VR)体験を提供するという課題について検討する。
モバイルユーザへの信頼性の高い超高精細ビデオフレーム配信を実現するために,コーディネートマルチポイント(CoMP)伝送技術とミリ波(mmWave)通信を利用する。
論文 参考訳(メタデータ) (2021-06-03T08:35:10Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。