論文の概要: BiFNet: Bidirectional Fusion Network for Road Segmentation
- arxiv url: http://arxiv.org/abs/2004.08582v1
- Date: Sat, 18 Apr 2020 10:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:37:41.082976
- Title: BiFNet: Bidirectional Fusion Network for Road Segmentation
- Title(参考訳): BiFNet:道路セグメンテーションのための双方向核融合ネットワーク
- Authors: Haoran Li, Yaran Chen, Qichao Zhang and Dongbin Zhao
- Abstract要約: 多センサフュージョンに基づく道路セグメント化は、乾燥可能なエリアを提供するため、インテリジェントな運転システムにおいて重要な役割を担っている。
本稿では,LiDARの鳥眼ビュー(BEV)が水平面の空間構造に留まっていることを考慮し,点雲の画像とBEVを融合させる双方向核融合ネットワーク(BiFNet)を提案する。
- 参考スコア(独自算出の注目度): 14.566675602785146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-sensor fusion-based road segmentation plays an important role in the
intelligent driving system since it provides a drivable area. The existing
mainstream fusion method is mainly to feature fusion in the image space domain
which causes the perspective compression of the road and damages the
performance of the distant road. Considering the bird's eye views(BEV) of the
LiDAR remains the space structure in horizontal plane, this paper proposes a
bidirectional fusion network(BiFNet) to fuse the image and BEV of the point
cloud. The network consists of two modules: 1) Dense space transformation
module, which solves the mutual conversion between camera image space and BEV
space. 2) Context-based feature fusion module, which fuses the different
sensors information based on the scenes from corresponding features.This method
has achieved competitive results on KITTI dataset.
- Abstract(参考訳): 多センサフュージョンに基づく道路セグメント化は、乾燥可能なエリアを提供するため、インテリジェント駆動システムにおいて重要な役割を果たす。
現行の主流融合法は主に画像空間領域における融合を特徴とし、道路の遠近圧縮を引き起こし、遠方道路の性能を損なうものである。
本稿では,LiDARの鳥眼ビュー(BEV)が水平面の空間構造に留まっていることを考慮し,点雲の画像とBEVを融合させる双方向融合ネットワーク(BiFNet)を提案する。
ネットワークは2つのモジュールで構成される。
1) カメラ画像空間とbev空間の相互変換を解決する高密度空間変換モジュール。
2) コンテキストベースの特徴融合モジュールは,各シーンから異なるセンサ情報を抽出し,KITTIデータセット上での競合的な結果を得た。
関連論文リスト
- DAF-Net: A Dual-Branch Feature Decomposition Fusion Network with Domain Adaptive for Infrared and Visible Image Fusion [21.64382683858586]
赤外線と可視画像の融合は、両モードの相補的な情報を組み合わせて、より包括的なシーン理解を提供することを目的としている。
最大領域適応型デュアルブランチ機能分解融合ネットワーク(DAF-Net)を提案する。
MK-MMDを導入することで、DAF-Netは可視画像と赤外線画像の潜在特徴空間を効果的に整列し、融合画像の品質を向上させる。
論文 参考訳(メタデータ) (2024-09-18T02:14:08Z) - Quantum Inverse Contextual Vision Transformers (Q-ICVT): A New Frontier in 3D Object Detection for AVs [4.378378863689719]
我々はQuantum Inverse Contextual Vision Transformer (Q-ICVT)と呼ばれる革新的な2段階融合プロセスを開発している。
このアプローチは、量子概念における断熱計算を利用して、Global Adiabatic Transformer (GAT)として知られる新しい可逆的視覚変換器を作成する。
実験の結果,Q-ICVTはL2障害に対して82.54mAPHを実現し,現状の核融合法よりも1.88%向上した。
論文 参考訳(メタデータ) (2024-08-20T21:36:57Z) - FlatFusion: Delving into Details of Sparse Transformer-based Camera-LiDAR Fusion for Autonomous Driving [63.96049803915402]
多様なセンサーのモダリティからのデータの統合は、自律運転のシナリオにおいて一般的な方法論となっている。
効率的な点雲変換器の最近の進歩は、スパースフォーマットにおける情報統合の有効性を裏付けている。
本稿では,Transformer を用いた sparse cameraLiDAR 融合における設計選択を包括的に検討する。
論文 参考訳(メタデータ) (2024-08-13T11:46:32Z) - CrossFuse: A Novel Cross Attention Mechanism based Infrared and Visible Image Fusion Approach [9.253098561330978]
補完情報を強化するために,CAM(Cross attention mechanism)を提案する。
融合画像を生成するための2段階の訓練戦略に基づく融合スキームを提案する。
実験の結果,提案手法は既存の核融合ネットワークと比較してSOTA核融合性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-15T09:52:42Z) - Fusion-Mamba for Cross-modality Object Detection [63.56296480951342]
異なるモダリティから情報を融合するクロスモダリティは、オブジェクト検出性能を効果的に向上させる。
We design a Fusion-Mamba block (FMB) to map cross-modal features into a hidden state space for interaction。
提案手法は,m3FD$が5.9%,FLIRデータセットが4.9%,m3FD$が5.9%である。
論文 参考訳(メタデータ) (2024-04-14T05:28:46Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。