論文の概要: Multi-modal Fusion Technology based on Vehicle Information: A Survey
- arxiv url: http://arxiv.org/abs/2211.06080v1
- Date: Fri, 11 Nov 2022 09:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 16:58:56.951563
- Title: Multi-modal Fusion Technology based on Vehicle Information: A Survey
- Title(参考訳): 車両情報に基づくマルチモーダル核融合技術:サーベイ
- Authors: Yan Gong, Jianli Lu, Jiayi Wu, Wenzhuo Liu
- Abstract要約: 現在のマルチモーダル融合法は主にカメラデータとLiDARデータに焦点を当てているが、車両の底面センサーが提供する運動情報にはほとんど注意を払わない。
これらの情報は複雑な外部シーンの影響を受けないため、より堅牢で信頼性が高い。
自動車ボトム情報のさらなる活用を促進するために,自動運転タスクのための多モード融合技術の新たなアイデアが提案されている。
- 参考スコア(独自算出の注目度): 0.7646713951724012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-modal fusion is a basic task of autonomous driving system perception,
which has attracted many scholars' interest in recent years. The current
multi-modal fusion methods mainly focus on camera data and LiDAR data, but pay
little attention to the kinematic information provided by the bottom sensors of
the vehicle, such as acceleration, vehicle speed, angle of rotation. These
information are not affected by complex external scenes, so it is more robust
and reliable. In this paper, we introduce the existing application fields of
vehicle bottom information and the research progress of related methods, as
well as the multi-modal fusion methods based on bottom information. We also
introduced the relevant information of the vehicle bottom information data set
in detail to facilitate the research as soon as possible. In addition, new
future ideas of multi-modal fusion technology for autonomous driving tasks are
proposed to promote the further utilization of vehicle bottom information.
- Abstract(参考訳): マルチモーダル融合は自動運転システム知覚の基本課題であり、近年多くの研究者の関心を集めている。
現在のマルチモーダル融合法は主にカメラデータとLiDARデータに焦点を当てているが、加速度、車両速度、回転角など、車両の下部センサーが提供する運動情報にはほとんど注意を払わない。
これらの情報は複雑な外部シーンに影響されないため、より堅牢で信頼性が高い。
本稿では,車両底面情報の既存応用分野と関連する手法の研究の進展,および底面情報に基づくマルチモーダル融合手法について紹介する。
また,車両ボトム情報データセットの関連情報を詳細に紹介し,研究の迅速化を図った。
さらに,車底情報の利用を促進するために,自動運転タスクのための多モード融合技術の新たなアイデアを提案する。
関連論文リスト
- Foundations and Recent Trends in Multimodal Mobile Agents: A Survey [57.677161006710065]
モバイルエージェントは、複雑で動的なモバイル環境におけるタスクの自動化に不可欠である。
近年の進歩により、リアルタイム適応性とマルチモーダルインタラクションが向上している。
これらの進歩は、プロンプトベースの方法とトレーニングベースの方法の2つの主要なアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-04T11:50:58Z) - A Survey of Deep Learning Based Radar and Vision Fusion for 3D Object Detection in Autonomous Driving [9.962648957398923]
本稿では,自律運転における3次元物体検出のためのディープラーニング手法に基づくレーダビジョン(RV)融合の包括的調査に着目する。
現在最も有望な融合戦略として、これらの3次元境界ボックス予測とBEVベースのアプローチを含む、エンドツーエンドの融合手法のより深い分類を提供する。
論文 参考訳(メタデータ) (2024-06-02T11:37:50Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future [130.87142103774752]
このレビューは、70以上のオープンソースの自動運転データセットを体系的に評価する。
高品質なデータセットの作成の基礎となる原則など、さまざまな側面に関する洞察を提供する。
また、解決を保障する科学的、技術的課題も検討している。
論文 参考訳(メタデータ) (2023-12-06T10:46:53Z) - LLM4Drive: A Survey of Large Language Models for Autonomous Driving [62.10344445241105]
大規模言語モデル(LLM)は、文脈理解、論理的推論、回答生成などの能力を示した。
本稿では,自動走行のための大規模言語モデル (LLM4AD) に関する研究ラインを体系的にレビューする。
論文 参考訳(メタデータ) (2023-11-02T07:23:33Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Multi-modal Sensor Fusion for Auto Driving Perception: A Survey [22.734013343067407]
本稿では,自律運転における知覚課題に対する既存のマルチモーダル方式の文献的考察を行う。
融合段階の観点から,より合理的な分類法により,これらを2つの主要なクラス,4つのマイナークラスに分割する革新的な方法を提案する。
論文 参考訳(メタデータ) (2022-02-06T04:18:45Z) - OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with
Vehicle-to-Vehicle Communication [13.633468133727]
車両から車両への認識のための大規模なオープン・シミュレート・データセットを提示する。
70以上の興味深いシーン、11,464フレーム、232,913個の注釈付き3D車両のバウンディングボックスを含んでいる。
論文 参考訳(メタデータ) (2021-09-16T00:52:41Z) - Multi-Modal 3D Object Detection in Autonomous Driving: a Survey [10.913958563906931]
自動運転車には、堅牢で正確な環境認識を行うための一連のセンサーが備わっている。
センサーの数や種類が増加し続けており、それらを組み合わせることで知覚を向上させることが自然のトレンドになりつつある。
この調査では、複数のセンサデータソースを利用する、最近の核融合に基づく3D検出ディープラーニングモデルについてレビューする。
論文 参考訳(メタデータ) (2021-06-24T02:52:12Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Deep Learning for Image and Point Cloud Fusion in Autonomous Driving: A
Review [15.10767676137607]
カメラとLiDARの融合は新たな研究テーマになりつつある。
本稿では、画像と点クラウドの両方を活用するディープラーニングベースのデータ融合アプローチについてレビューする。
我々は、現在の学術研究と現実世界の応用の間のギャップと見過ごされた課題を識別する。
論文 参考訳(メタデータ) (2020-04-10T20:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。