論文の概要: Transformer-Based Sensor Fusion for Autonomous Driving: A Survey
- arxiv url: http://arxiv.org/abs/2302.11481v1
- Date: Wed, 22 Feb 2023 16:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 14:36:54.368245
- Title: Transformer-Based Sensor Fusion for Autonomous Driving: A Survey
- Title(参考訳): 変圧器を用いた自律運転のためのセンサ融合:調査
- Authors: Apoorv Singh
- Abstract要約: トランスフォーマーベースの検出ヘッドとCNNベースの特徴エンコーダは、センサデータから特徴を抽出する。
Vision Transformer (ViT) の基本を手短に見て、読者が簡単に論文をフォローできるようにします。
結論として,センサフュージョンの傾向を概説し,今後の研究を推し進める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sensor fusion is an essential topic in many perception systems, such as
autonomous driving and robotics. Transformers-based detection head and
CNN-based feature encoder to extract features from raw sensor-data has emerged
as one of the best performing sensor-fusion 3D-detection-framework, according
to the dataset leaderboards. In this work we provide an in-depth literature
survey of transformer based 3D-object detection task in the recent past,
primarily focusing on the sensor fusion. We also briefly go through the Vision
transformers (ViT) basics, so that readers can easily follow through the paper.
Moreover, we also briefly go through few of the non-transformer based
less-dominant methods for sensor fusion for autonomous driving. In conclusion
we summarize with sensor-fusion trends to follow and provoke future research.
More updated summary can be found at:
https://github.com/ApoorvRoboticist/Transformers-Sensor-Fusion
- Abstract(参考訳): センサ融合は、自動運転やロボティクスなど、多くの認識システムにおいて重要なトピックである。
dataset leaderboardsによると、トランスフォーマーベースの検出ヘッドとcnnベースの特徴エンコーダは、生のセンサーデータから特徴を抽出するのに最適な3d検出フレームワークの1つとして登場した。
本研究では,近年のトランスフォーマーを用いた3次元物体検出タスクについて,主にセンサフュージョンに着目した詳細な文献調査を行う。
また、ViT(Vision Transformer)の基礎も手短に調べて、読者が簡単に論文をフォローできるようにしています。
さらに,自律運転のためのセンサ融合のための非トランスフォーマーベース非支配的手法についても,短時間で検討した。
結論として,センサフュージョンの傾向を概説し,今後の研究を推し進める。
より更新された概要は、https://github.com/ApoorvRoboticist/Transformers-Sensor-Fusionを参照してください。
関連論文リスト
- Transferring Tactile Data Across Sensors [1.5566524830295307]
本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
論文 参考訳(メタデータ) (2024-10-18T09:15:47Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Vision-RADAR fusion for Robotics BEV Detections: A Survey [0.0]
BEV物体検出システムにおけるビジョンレーダ融合法の検討
我々は、背景情報viz.、オブジェクト検出タスク、センサーの選択、センサー設定、ベンチマークデータセット、ロボット認識システムの評価指標を精査する。
我々は将来の研究を啓蒙するためのビジョンレーダ融合の可能性について提案する。
論文 参考訳(メタデータ) (2023-02-13T19:10:44Z) - Transformers in Remote Sensing: A Survey [76.95730131233424]
我々は、リモートセンシングにおけるトランスフォーマーに基づく進化の体系的レビューを初めて行った。
本調査では,60以上の変圧器を用いたリモートセンシング手法について検討した。
リモートセンシングにおけるトランスフォーマーの様々な課題とオープンな課題を議論し、調査を締めくくった。
論文 参考訳(メタデータ) (2022-09-02T17:57:05Z) - TransFuser: Imitation with Transformer-Based Sensor Fusion for
Autonomous Driving [46.409930329699336]
本稿では,自己注意を用いた画像とLiDAR表現の統合機構であるTransFuserを提案する。
提案手法では,複数解像度のトランスフォーマーモジュールを用いて視線と鳥の視線の特徴マップを融合する。
我々は、CARLA都市運転シミュレータの公式リーダーボードと同様に、長いルートと密集した交通量を持つ挑戦的な新しいベンチマークにおいて、その効果を実験的に検証した。
論文 参考訳(メタデータ) (2022-05-31T17:57:19Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - ViDT: An Efficient and Effective Fully Transformer-based Object Detector [97.71746903042968]
検出変換器は、オブジェクト検出のための最初のエンドツーエンド学習システムである。
視覚変換器は、画像分類のための最初の完全変換器ベースのアーキテクチャである。
本稿では、視覚・検出変換器(ViDT)を統合し、効果的で効率的な物体検出装置を構築する。
論文 参考訳(メタデータ) (2021-10-08T06:32:05Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。