論文の概要: AdaFusion: Visual-LiDAR Fusion with Adaptive Weights for Place
Recognition
- arxiv url: http://arxiv.org/abs/2111.11739v1
- Date: Tue, 23 Nov 2021 09:22:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-24 16:03:01.979587
- Title: AdaFusion: Visual-LiDAR Fusion with Adaptive Weights for Place
Recognition
- Title(参考訳): AdaFusion: 位置認識のための適応重み付きビジュアルLiDAR融合
- Authors: Haowen Lai, Peng Yin, Sebastian Scherer
- Abstract要約: 我々は,画像と点雲の特徴の両方の重みを学習するために,AdaFusionという名前の適応重み付け視覚-LiDAR融合法を提案する。
我々の研究は2つの公開データセットで検証され、適応重み付けが認識精度の向上と様々な環境に対するシステムの堅牢性向上に役立つことを示した。
- 参考スコア(独自算出の注目度): 5.937476588076547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the increasing application of place recognition
in various environments, such as city roads, large buildings, and a mix of
indoor and outdoor places. This task, however, still remains challenging due to
the limitations of different sensors and the changing appearance of
environments. Current works only consider the use of individual sensors, or
simply combine different sensors, ignoring the fact that the importance of
different sensors varies as the environment changes. In this paper, an adaptive
weighting visual-LiDAR fusion method, named AdaFusion, is proposed to learn the
weights for both images and point cloud features. Features of these two
modalities are thus contributed differently according to the current
environmental situation. The learning of weights is achieved by the attention
branch of the network, which is then fused with the multi-modality feature
extraction branch. Furthermore, to better utilize the potential relationship
between images and point clouds, we design a twostage fusion approach to
combine the 2D and 3D attention. Our work is tested on two public datasets, and
experiments show that the adaptive weights help improve recognition accuracy
and system robustness to varying environments.
- Abstract(参考訳): 近年では、都市道路や大きな建物、屋内と屋外の混在など、様々な環境における場所認識の応用が増えている。
しかし、この作業は、異なるセンサーの制限と環境の変化のため、依然として困難である。
現在の研究は、個々のセンサーの使用のみを考慮し、あるいは単に異なるセンサーを組み合わせることで、異なるセンサーの重要性が環境の変化によって異なるという事実を無視している。
本稿では,AdaFusionという名前の適応重み付け視覚-LiDAR融合法を提案し,画像と点雲の特徴の重み付けを学習する。
これら2つのモダリティの特徴は, 現状の環境条件によって異なる。
重みの学習はネットワークの注意ブランチによって達成され、マルチモダリティ特徴抽出ブランチと融合される。
さらに,画像と点雲の潜在的な関係をよりよく利用するために,2次元と3次元の注意を結びつける2段階融合手法を考案する。
我々の研究は2つの公開データセットで検証され、適応重み付けが認識精度の向上と様々な環境に対するシステムの堅牢性向上に役立つことを示した。
関連論文リスト
- Condition-Aware Multimodal Fusion for Robust Semantic Perception of Driving Scenes [56.52618054240197]
本研究では,運転シーンのロバストな意味認識のための条件対応型マルチモーダル融合手法を提案する。
CAFuserは、RGBカメラ入力を用いて環境条件を分類し、複数のセンサの融合を誘導するコンディショントークンを生成する。
MUSESデータセットでは,マルチモーダルパノプティクスセグメンテーションの59.7 PQ,セマンティックセグメンテーションの78.2 mIoU,公開ベンチマークの1位にランクインした。
論文 参考訳(メタデータ) (2024-10-14T17:56:20Z) - PRFusion: Toward Effective and Robust Multi-Modal Place Recognition with Image and Point Cloud Fusion [26.423254820086296]
本稿では,PRFusionとPRFusion++という2つのマルチモーダル位置認識モデルを提案する。
3つの大規模ベンチマークにおいて、両モデルの最先端性能を検証する。特に、要求されるボレアデータセットにおいて、既存のモデルに対して+3.0 AR@1のかなりのマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-10-07T11:31:12Z) - Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds [99.60575439926963]
本稿では,実環境で捉えた点雲から正確な3次元HPSを実現するための基本的フレームワークであるPointHPSを提案する。
PointHPSは、カスケードアーキテクチャを通じてポイント機能を反復的に洗練する。
広範囲な実験により、ポイントHPSは強力な特徴抽出と処理方式を持ち、State-of-the-Art法より優れていることが示された。
論文 参考訳(メタデータ) (2023-08-28T11:10:14Z) - Self-Supervised Monocular Depth Estimation by Direction-aware Cumulative
Convolution Network [80.19054069988559]
自己教師付き単眼深度推定は, 方向感度と環境依存性を示す。
本稿では2つの側面において深度表現を改善する方向対応累積畳み込みネットワーク(DaCCN)を提案する。
実験の結果,提案手法は広く使用されている3つのベンチマークにおいて大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-08-10T14:32:18Z) - dual unet:a novel siamese network for change detection with cascade
differential fusion [4.651756476458979]
本稿では,変化検出タスク,すなわちDual-UNetのための新しいSiameseニューラルネットワークを提案する。
従来のバイテンポラル画像の符号化とは対照的に,画素の空間的差分関係に着目したエンコーダ差分アテンションモジュールを設計する。
実験により、提案手法は、一般的な季節変化検出データセットにおいて、常に最も高度な手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-12T14:24:09Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。