論文の概要: Enabling Efficient Deep Convolutional Neural Network-based Sensor Fusion
for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2202.11231v1
- Date: Tue, 22 Feb 2022 23:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 15:53:36.957531
- Title: Enabling Efficient Deep Convolutional Neural Network-based Sensor Fusion
for Autonomous Driving
- Title(参考訳): 自律運転のための高効率深部畳み込みニューラルネットワークを用いたセンサフュージョン
- Authors: Xiaoming Zeng, Zhendong Wang, Yang Hu
- Abstract要約: DCNN間の融合は、良好な認識精度を達成するための有望な戦略として証明されている。
本稿では,融合した特徴マップ間の特徴差の度合いを計測する特徴不均一度尺度を提案する。
また、計算オーバーヘッドを少なくして精度を向上できる層共有手法をディープ層に提案する。
- 参考スコア(独自算出の注目度): 10.326217500172689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving demands accurate perception and safe decision-making. To
achieve this, automated vehicles are now equipped with multiple sensors (e.g.,
camera, Lidar, etc.), enabling them to exploit complementary environmental
context by fusing data from different sensing modalities. With the success of
Deep Convolutional Neural Network(DCNN), the fusion between DCNNs has been
proved as a promising strategy to achieve satisfactory perception accuracy.
However, mainstream existing DCNN fusion schemes conduct fusion by directly
element-wisely adding feature maps extracted from different modalities together
at various stages, failing to consider whether the features being fused are
matched or not. Therefore, we first propose a feature disparity metric to
quantitatively measure the degree of feature disparity between the feature maps
being fused. We then propose Fusion-filter as a feature-matching techniques to
tackle the feature-mismatching issue. We also propose a Layer-sharing technique
in the deep layer that can achieve better accuracy with less computational
overhead. Together with the help of the feature disparity to be an additional
loss, our proposed technologies enable DCNN to learn corresponding feature maps
with similar characteristics and complementary visual context from different
modalities to achieve better accuracy. Experimental results demonstrate that
our proposed fusion technique can achieve better accuracy on KITTI dataset with
less computational resources demand.
- Abstract(参考訳): 自動運転は正確な認識と安全な意思決定を必要とする。
これを実現するために、自動運転車は複数のセンサー(カメラ、ライダーなど)を備えており、異なるセンシングモードのデータを融合することで、補完的な環境コンテキストを活用できる。
ディープ畳み込みニューラルネットワーク(DCNN)の成功により、DCNN間の融合は良好な認識精度を達成するための有望な戦略であることが証明された。
しかし,既存のDCNN融合方式では,様々な段階において異なるモードから抽出した特徴写像を直接要素的に付加することにより,融合を行う。
そこで本研究では,まず特徴マップ間の特徴差の程度を定量的に測定するための特徴差指標を提案する。
次に,特徴マッチング問題に対処するための特徴マッチング手法としてFusion-filterを提案する。
また,計算オーバーヘッドを少なくして精度を向上できる深層層における層共有手法を提案する。
特徴の相違が付加的な損失となることの助けを借りて、提案技術により、DCNNは、類似した特徴を持つ特徴マップと、異なるモダリティからの相補的な視覚的コンテキストを学習し、精度を向上させることができる。
実験により,提案手法により,計算資源の少ないKITTIデータセットの精度が向上することを示した。
関連論文リスト
- Multi-scale Quaternion CNN and BiGRU with Cross Self-attention Feature Fusion for Fault Diagnosis of Bearing [5.3598912592106345]
深層学習は断層診断(FD)に著しい進歩をもたらした
マルチスケール畳み込み畳み込みニューラルネットワーク(MQCNN)、双方向ゲートリカレントユニット(BiG)、クロス自己注意機能融合(CSAFF)を統合した新しいFDモデルを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:55:02Z) - AMFD: Distillation via Adaptive Multimodal Fusion for Multispectral Pedestrian Detection [23.91870504363899]
マルチスペクトル検出におけるダブルストリームネットワークは、マルチモーダルデータに2つの異なる特徴抽出枝を用いる。
これにより、組み込みデバイスにおける多スペクトル歩行者検出が自律システムに広く採用されるのを妨げている。
本稿では,教師ネットワークの本来のモーダル特徴を完全に活用できる適応型モーダル核融合蒸留(AMFD)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2024-05-21T17:17:17Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - Point-aware Interaction and CNN-induced Refinement Network for RGB-D
Salient Object Detection [95.84616822805664]
我々は,CNNによるトランスフォーマーアーキテクチャを導入し,ポイント・アウェア・インタラクションとCNNによるリファインメントを備えた新しいRGB-D SODネットワークを提案する。
トランスフォーマーがもたらすブロック効果とディテール破壊問題を自然に軽減するために,コンテンツリファインメントとサプリメントのためのCNNRユニットを設計する。
論文 参考訳(メタデータ) (2023-08-17T11:57:49Z) - T-Fusion Net: A Novel Deep Neural Network Augmented with Multiple
Localizations based Spatial Attention Mechanisms for Covid-19 Detection [0.7614628596146599]
本研究は、複数の局所化に基づく空間的注意を増大させる新しいディープニューラルネットワーク(T-Fusion Net)を提案する。
さらに、同ネットワークの同種アンサンブルを用いて、画像分類精度を高める。
提案したT-フュージョンネットと同質アンサンブルモデルは,他の最先端手法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-31T18:18:01Z) - Low-Energy Convolutional Neural Networks (CNNs) using Hadamard Method [0.0]
畳み込みニューラルネットワーク(CNN)は、オブジェクト認識と検出の潜在的アプローチである。
畳み込み操作の代替として,アダマール変換に基づく新しいアプローチを示す。
この方法は、入力画像サイズよりもカーネルサイズが小さい場合、他のコンピュータビジョンタスクに役立ちます。
論文 参考訳(メタデータ) (2022-09-06T21:36:57Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Enhanced Exploration in Neural Feature Selection for Deep Click-Through
Rate Prediction Models via Ensemble of Gating Layers [7.381829794276824]
神経機能選択(NFS)の目標は、最も説明力のある比較的小さな機能のサブセットを選択することである。
ゲーティングアプローチは、情報の少ない特徴をドロップするために、識別可能なバイナリゲートのセットを挿入する。
勾配に基づく解の探索能力を向上させるために,単純だが効果的なアンサンブル学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T04:37:05Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。