論文の概要: HiLO: High-Level Object Fusion for Autonomous Driving using Transformers
- arxiv url: http://arxiv.org/abs/2506.02554v1
- Date: Tue, 03 Jun 2025 07:44:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.404461
- Title: HiLO: High-Level Object Fusion for Autonomous Driving using Transformers
- Title(参考訳): HiLO: トランスを用いた自律走行のための高レベルオブジェクトフュージョン
- Authors: Timo Osterburg, Franz Albers, Christopher Diehl, Rajesh Pushparaj, Torsten Bertram,
- Abstract要約: 高レベル融合法は、より低い計算要求で堅牢性を提供する。
本稿では,適応カルマンフィルタ (AKF) を改良し,HILOと呼ばれる新しいトランスフォーマーに基づく高レベルオブジェクト融合法を提案する。
- 参考スコア(独自算出の注目度): 0.125828876338076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fusion of sensor data is essential for a robust perception of the environment in autonomous driving. Learning-based fusion approaches mainly use feature-level fusion to achieve high performance, but their complexity and hardware requirements limit their applicability in near-production vehicles. High-level fusion methods offer robustness with lower computational requirements. Traditional methods, such as the Kalman filter, dominate this area. This paper modifies the Adapted Kalman Filter (AKF) and proposes a novel transformer-based high-level object fusion method called HiLO. Experimental results demonstrate improvements of $25.9$ percentage points in $\textrm{F}_1$ score and $6.1$ percentage points in mean IoU. Evaluation on a new large-scale real-world dataset demonstrates the effectiveness of the proposed approaches. Their generalizability is further validated by cross-domain evaluation between urban and highway scenarios. Code, data, and models are available at https://github.com/rst-tu-dortmund/HiLO .
- Abstract(参考訳): センサデータの融合は、自律運転における環境の堅牢な認識に不可欠である。
学習ベースの融合アプローチは主に高い性能を達成するために機能レベルの融合を使用するが、その複雑さとハードウェア要件は、近距離生産車への適用性を制限している。
高レベル融合法は、より低い計算要求で堅牢性を提供する。
カルマンフィルターのような伝統的な手法がこの地域を支配している。
本稿では,適応カルマンフィルタ (AKF) を改良し,HILOと呼ばれる新しいトランスフォーマーに基づく高レベルオブジェクト融合法を提案する。
実験結果は、$\textrm{F}_1$スコアで25.9ドルのパーセンテージポイント、平均IoUで6.1ドルのパーセンテージポイントの改善を示している。
新しい大規模実世界のデータセットの評価は,提案手法の有効性を示す。
その一般化性は、都市と高速道路のシナリオ間のクロスドメイン評価によってさらに検証される。
コード、データ、モデルはhttps://github.com/rst-tu-dortmund/HiLO で入手できる。
関連論文リスト
- FlatFusion: Delving into Details of Sparse Transformer-based Camera-LiDAR Fusion for Autonomous Driving [63.96049803915402]
多様なセンサーのモダリティからのデータの統合は、自律運転のシナリオにおいて一般的な方法論となっている。
効率的な点雲変換器の最近の進歩は、スパースフォーマットにおける情報統合の有効性を裏付けている。
本稿では,Transformer を用いた sparse cameraLiDAR 融合における設計選択を包括的に検討する。
論文 参考訳(メタデータ) (2024-08-13T11:46:32Z) - E2E-MFD: Towards End-to-End Synchronous Multimodal Fusion Detection [21.185032466325737]
マルチモーダル核融合検出のための新しいエンドツーエンドアルゴリズムであるE2E-MFDを紹介する。
E2E-MFDはプロセスの合理化を図り、単一のトレーニングフェーズで高いパフォーマンスを達成する。
複数の公開データセットに対する広範なテストは、E2E-MFDの優れた機能を明らかにします。
論文 参考訳(メタデータ) (2024-03-14T12:12:17Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Filling the Missing: Exploring Generative AI for Enhanced Federated
Learning over Heterogeneous Mobile Edge Devices [72.61177465035031]
ローカルデータのFIMI(FIlling the MIssing)部分を活用することにより,これらの課題に対処する,AIを活用した創発的なフェデレーション学習を提案する。
実験の結果,FIMIはデバイス側エネルギーの最大50%を節約し,目標とするグローバルテスト精度を達成できることがわかった。
論文 参考訳(メタデータ) (2023-10-21T12:07:04Z) - Sensor Fusion by Spatial Encoding for Autonomous Driving [1.319058156672392]
本稿では,カメラとLiDARのデータを融合する手法を提案する。
複数の解像度でTransformerモジュールを利用することで、ローカルおよびグローバルなコンテキスト関係を効果的に組み合わせることができる。
提案手法は, 従来の手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2023-08-17T04:12:02Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - HydraFusion: Context-Aware Selective Sensor Fusion for Robust and
Efficient Autonomous Vehicle Perception [9.975955132759385]
自律走行車(AV)の知覚を改善するために、カメラ、レーダー、ライダーセンサーからのセンサデータを融合する技術が提案されている。
既存の手法は、融合実装の剛性のため、困難な運転環境では不十分に堅牢である。
提案するHydraFusionは、現在の運転状況を特定し、センサの最良の組み合わせを融合する選択的なセンサー融合フレームワークである。
論文 参考訳(メタデータ) (2022-01-17T22:19:53Z) - An Evaluation of RGB and LiDAR Fusion for Semantic Segmentation [0.293168019422713]
LiDARとカメラは、多くの発表された自動運転車のプロトタイプに搭載される予定の2つの主要センサーである。
本稿では,これらの2種類のデータを意味的セグメンテーションのために融合することで,さらなるメリットがあるのか,という問いに答えようと試みる。
また、どのレベルが核融合が最も有用かを示す。
全ての核融合モデルはベースモデルよりも改善され、中間核融合は平均核融合(mIoU)メートル法において2.7%の最高の改善を示す。
論文 参考訳(メタデータ) (2021-08-17T14:46:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。