論文の概要: RadarGNN: Transformation Invariant Graph Neural Network for Radar-based
Perception
- arxiv url: http://arxiv.org/abs/2304.06547v1
- Date: Thu, 13 Apr 2023 13:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 14:16:44.714995
- Title: RadarGNN: Transformation Invariant Graph Neural Network for Radar-based
Perception
- Title(参考訳): RadarGNN: レーダベース知覚のための変換不変グラフニューラルネットワーク
- Authors: Felix Fent, Philipp Bauerschmidt and Markus Lienkamp
- Abstract要約: 点自体の情報だけでなく,それらの関係も利用する新しいグラフニューラルネットワークが提案されている。
このモデルは、グラフの端に埋め込まれたポイント特徴とポイントペア特徴の両方を考慮するように設計されている。
RadarGNNモデルは、RadarScenesデータセットで以前のすべてのメソッドより優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A reliable perception has to be robust against challenging environmental
conditions. Therefore, recent efforts focused on the use of radar sensors in
addition to camera and lidar sensors for perception applications. However, the
sparsity of radar point clouds and the poor data availability remain
challenging for current perception methods. To address these challenges, a
novel graph neural network is proposed that does not just use the information
of the points themselves but also the relationships between the points. The
model is designed to consider both point features and point-pair features,
embedded in the edges of the graph. Furthermore, a general approach for
achieving transformation invariance is proposed which is robust against unseen
scenarios and also counteracts the limited data availability. The
transformation invariance is achieved by an invariant data representation
rather than an invariant model architecture, making it applicable to other
methods. The proposed RadarGNN model outperforms all previous methods on the
RadarScenes dataset. In addition, the effects of different invariances on the
object detection and semantic segmentation quality are investigated. The code
is made available as open-source software under
https://github.com/TUMFTM/RadarGNN.
- Abstract(参考訳): 信頼できる認識は、困難な環境条件に対して堅牢でなければならない。
そのため、近年の取り組みは、カメラとライダーセンサーに加えてレーダーセンサーの利用に焦点を当てている。
しかしながら、レーダーポイント雲のスパース性とデータ可用性の低さは、現在の認識手法では依然として困難である。
これらの課題に対処するために、ポイント自体の情報だけでなく、ポイント間の関係も利用する新しいグラフニューラルネットワークが提案されている。
このモデルは、グラフの端に埋め込まれたポイント特徴とポイントペア特徴の両方を考慮するように設計されている。
さらに,未解決のシナリオに対して堅牢な変換不変性を実現するための一般的なアプローチが提案されている。
変換不変性は不変モデルではなく不変データ表現によって達成され、他の方法にも適用できる。
提案されたRadarGNNモデルは、RadarScenesデータセットで以前のすべてのメソッドより優れている。
さらに,物体検出とセマンティックセグメンテーション品質に対する異なる不変性の影響について検討した。
ソースコードはhttps://github.com/TUMFTM/RadarGNNで公開されている。
関連論文リスト
- Geo-Localization Based on Dynamically Weighted Factor-Graph [74.75763142610717]
特徴に基づくジオローカライゼーションは、航空画像から抽出された特徴と車両のセンサーによって検出された特徴とを関連付けることに依存する。
これにより、ランドマークの種類は両方のソースから観測できなければならない。
車両軌道推定のための動的重み付き因子グラフモデルを提案する。
論文 参考訳(メタデータ) (2023-11-13T12:44:14Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Radar Image Reconstruction from Raw ADC Data using Parametric
Variational Autoencoder with Domain Adaptation [0.0]
本研究では,パラメータ制約付き変分オートエンコーダを提案し,レンジ角画像上でクラスタ化および局所化されたターゲット検出を生成する。
実際のレーダデータを用いて可能なすべてのシナリオにおいて,提案するニューラルネットワークをトレーニングする問題を回避すべく,ドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2022-05-30T16:17:36Z) - Improved Orientation Estimation and Detection with Hybrid Object
Detection Networks for Automotive Radar [1.53934570513443]
我々は,レーダに基づく物体検出ネットワークを改善するために,グリッドとポイントを併用した新しいハイブリッドアーキテクチャを提案する。
格子描画の前に、点の正確な相対位置を利用して、点ベースモデルが近傍の特徴を抽出できることが示される。
これは、次の畳み込み検出バックボーンに対して大きなメリットがある。
論文 参考訳(メタデータ) (2022-05-03T06:29:03Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [77.14319095965058]
グラフ上のノードレベルの予測にOOD問題を定式化する。
そこで我々は,探索から抽出までのリスク最小化という新たなドメイン不変学習手法を開発した。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Change Detection from Synthetic Aperture Radar Images via Graph-Based
Knowledge Supplement Network [36.41983596642354]
画像変化検出のためのグラフベースの知識補足ネットワーク(GKSNet)を提案する。
より具体的には、既存のラベル付きデータセットから識別情報を付加的な知識として抽出する。
提案手法を検証するために,4つのSARデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-01-22T02:50:50Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。