論文の概要: BiFNet: Bidirectional Fusion Network for Road Segmentation
- arxiv url: http://arxiv.org/abs/2004.08582v1
- Date: Sat, 18 Apr 2020 10:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 05:37:41.082976
- Title: BiFNet: Bidirectional Fusion Network for Road Segmentation
- Title(参考訳): BiFNet:道路セグメンテーションのための双方向核融合ネットワーク
- Authors: Haoran Li, Yaran Chen, Qichao Zhang and Dongbin Zhao
- Abstract要約: 多センサフュージョンに基づく道路セグメント化は、乾燥可能なエリアを提供するため、インテリジェントな運転システムにおいて重要な役割を担っている。
本稿では,LiDARの鳥眼ビュー(BEV)が水平面の空間構造に留まっていることを考慮し,点雲の画像とBEVを融合させる双方向核融合ネットワーク(BiFNet)を提案する。
- 参考スコア(独自算出の注目度): 14.566675602785146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-sensor fusion-based road segmentation plays an important role in the
intelligent driving system since it provides a drivable area. The existing
mainstream fusion method is mainly to feature fusion in the image space domain
which causes the perspective compression of the road and damages the
performance of the distant road. Considering the bird's eye views(BEV) of the
LiDAR remains the space structure in horizontal plane, this paper proposes a
bidirectional fusion network(BiFNet) to fuse the image and BEV of the point
cloud. The network consists of two modules: 1) Dense space transformation
module, which solves the mutual conversion between camera image space and BEV
space. 2) Context-based feature fusion module, which fuses the different
sensors information based on the scenes from corresponding features.This method
has achieved competitive results on KITTI dataset.
- Abstract(参考訳): 多センサフュージョンに基づく道路セグメント化は、乾燥可能なエリアを提供するため、インテリジェント駆動システムにおいて重要な役割を果たす。
現行の主流融合法は主に画像空間領域における融合を特徴とし、道路の遠近圧縮を引き起こし、遠方道路の性能を損なうものである。
本稿では,LiDARの鳥眼ビュー(BEV)が水平面の空間構造に留まっていることを考慮し,点雲の画像とBEVを融合させる双方向融合ネットワーク(BiFNet)を提案する。
ネットワークは2つのモジュールで構成される。
1) カメラ画像空間とbev空間の相互変換を解決する高密度空間変換モジュール。
2) コンテキストベースの特徴融合モジュールは,各シーンから異なるセンサ情報を抽出し,KITTIデータセット上での競合的な結果を得た。
関連論文リスト
- EMIFF: Enhanced Multi-scale Image Feature Fusion for
Vehicle-Infrastructure Cooperative 3D Object Detection [23.32916754209488]
車両・インフラ協力型3D(VIC3D)物体検出における2つの大きな課題が続いている。
VIC3Dタスクのための新しいカメラベースの3D検出フレームワーク、EMIFF(Multiscale Image Feature Fusion)を提案する。
実験により、EMIFFはDAIR-V2X-Cデータセット上でSOTAを達成し、従来のアーリーフュージョン法とレイトフュージョン法を同等の伝送コストで大幅に上回った。
論文 参考訳(メタデータ) (2024-02-23T11:35:48Z) - Dual Aggregation Transformer for Image Super-Resolution [92.41781921611646]
画像SRのための新しいトランスモデルDual Aggregation Transformerを提案する。
DATは、ブロック間およびブロック内二重方式で、空間次元とチャネル次元にまたがる特徴を集約する。
我々のDATは現在の手法を超越している。
論文 参考訳(メタデータ) (2023-08-07T07:39:39Z) - VIMI: Vehicle-Infrastructure Multi-view Intermediate Fusion for
Camera-based 3D Object Detection [17.22491199725569]
VIC3Dは、車両と交通インフラの両方から多視点カメラを利用する。
我々は、新しい3Dオブジェクト検出フレームワーク、Vines-Infrastructure Multi-view Intermediate fusion (VIMI)を提案する。
VIMIは15.61%のAP_3Dと21.44%のAP_BEVを新しいVIC3DデータセットであるDAIR-V2X-Cで達成している。
論文 参考訳(メタデータ) (2023-03-20T09:56:17Z) - TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with
Transformers [49.689566246504356]
そこで本研究では,LiDAR-カメラ融合に対するソフトアソシエーション機構による堅牢な解であるTransFusionを提案する。
TransFusionは大規模データセット上で最先端のパフォーマンスを実現する。
提案手法を3次元トラッキングタスクに拡張し,nuScenesトラッキングのリーダーボードにおける第1位を達成する。
論文 参考訳(メタデータ) (2022-03-22T07:15:13Z) - MBDF-Net: Multi-Branch Deep Fusion Network for 3D Object Detection [17.295359521427073]
3次元物体検出のためのMulti-Branch Deep Fusion Network (MBDF-Net)を提案する。
最初の段階では、マルチブランチ機能抽出ネットワークは、Adaptive Attention Fusionモジュールを使用して、単一モーダルなセマンティックな特徴からクロスモーダルな融合機能を生成する。
第2段階では、関心領域(RoI)をプールした核融合モジュールを用いて局所的な特徴を改良する。
論文 参考訳(メタデータ) (2021-08-29T15:40:15Z) - An Evaluation of RGB and LiDAR Fusion for Semantic Segmentation [0.293168019422713]
LiDARとカメラは、多くの発表された自動運転車のプロトタイプに搭載される予定の2つの主要センサーである。
本稿では,これらの2種類のデータを意味的セグメンテーションのために融合することで,さらなるメリットがあるのか,という問いに答えようと試みる。
また、どのレベルが核融合が最も有用かを示す。
全ての核融合モデルはベースモデルよりも改善され、中間核融合は平均核融合(mIoU)メートル法において2.7%の最高の改善を示す。
論文 参考訳(メタデータ) (2021-08-17T14:46:15Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - Image Fusion Transformer [75.71025138448287]
画像融合では、異なるセンサから得られた画像を融合して、情報強化された単一の画像を生成する。
近年,画像融合のための有意義な特徴を符号化するために,最先端の手法で畳み込みニューラルネットワーク(CNN)が採用されている。
我々は,画像融合変換器 (IFT) を提案する。
論文 参考訳(メタデータ) (2021-07-19T16:42:49Z) - Perception-aware Multi-sensor Fusion for 3D LiDAR Semantic Segmentation [59.42262859654698]
3Dセマンティックセグメンテーションは、自動運転やロボット工学など、多くのアプリケーションにおいてシーン理解において重要である。
既存の融合法は、2つのモードの差が大きいため、有望な性能を達成できない。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。