論文の概要: Hidden Gems: 4D Radar Scene Flow Learning Using Cross-Modal Supervision
- arxiv url: http://arxiv.org/abs/2303.00462v1
- Date: Wed, 1 Mar 2023 12:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 14:58:39.473705
- Title: Hidden Gems: 4D Radar Scene Flow Learning Using Cross-Modal Supervision
- Title(参考訳): hidden gems:cross-modal supervisorを用いた4次元レーダシーンフロー学習
- Authors: Fangqiang Ding, Andras Palffy, Dariu M. Gavrila, Chris Xiaoxuan Lu
- Abstract要約: 本研究では,4次元レーダを用いたクロスモーダル学習によるシーンフロー推定手法を提案する。
われわれのアプローチは、現代の自動運転車におけるセンサーの冗長性によって動機付けられている。
- 参考スコア(独自算出の注目度): 10.156747806377417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes a novel approach to 4D radar-based scene flow estimation
via cross-modal learning. Our approach is motivated by the co-located sensing
redundancy in modern autonomous vehicles. Such redundancy implicitly provides
various forms of supervision cues to the radar scene flow estimation.
Specifically, we introduce a multi-task model architecture for the identified
cross-modal learning problem and propose loss functions to opportunistically
engage scene flow estimation using multiple cross-modal constraints for
effective model training. Extensive experiments show the state-of-the-art
performance of our method and demonstrate the effectiveness of cross-modal
supervised learning to infer more accurate 4D radar scene flow. We also show
its usefulness to two subtasks - motion segmentation and ego-motion estimation.
Our source code will be available on \url{https://github.com/Toytiny/CMFlow.}
- Abstract(参考訳): 本研究では,4次元レーダを用いたクロスモーダル学習によるシーンフロー推定手法を提案する。
われわれのアプローチは、現代の自動運転車におけるセンサーの冗長性によって動機付けられている。
このような冗長性は、レーダーシーンフロー推定に様々な形態の監視手段を暗黙的に提供する。
具体的には,特定されたクロスモーダル学習問題に対するマルチタスクモデルアーキテクチャを導入し,複数のクロスモーダル制約を用いたシーンフロー推定を効果的モデル学習に合致する損失関数を提案する。
広汎な実験により,本手法の最先端性能を示し,より正確な4次元レーダシーンフローを推定するためのクロスモーダル教師あり学習の有効性を示した。
また,動作セグメンテーションとエゴモーション推定という2つのサブタスクにその有用性を示す。
ソースコードは \url{https://github.com/toytiny/cmflowで利用可能です。
}
関連論文リスト
- More Than Routing: Joint GPS and Route Modeling for Refine Trajectory
Representation Learning [26.630640299709114]
本稿では,JGRMという自己監督技術に基づく共同GPSとルートモデリングを提案する。
我々は2つのエンコーダを開発し、それぞれルートとGPSの軌跡を表現できるように調整した。
2つのモードからの表現は、モーダル間情報相互作用のための共有変換器に入力される。
論文 参考訳(メタデータ) (2024-02-25T18:27:25Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Self-Supervised Scene Flow Estimation with 4D Automotive Radar [7.3287286038702035]
4Dレーダーからのシーンフローを推定する方法はほとんど分かっていない。
LiDARの点雲と比較すると、レーダーデータは大幅に小さく、ノイズが高く、解像度もはるかに低い。
本研究の目的は,4次元レーダポイント雲からのシーンフローを,自己教師付き学習を利用して推定することである。
論文 参考訳(メタデータ) (2022-03-02T14:28:12Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Do not trust the neighbors! Adversarial Metric Learning for
Self-Supervised Scene Flow Estimation [0.0]
シーンフローは動的3次元シーンの個々の点に3次元運動ベクトルを推定するタスクである。
本稿では,3次元シーンフローベンチマークと,トレーニングフローモデルのための新しい自己教師型セットアップを提案する。
我々は,移動コヒーレンスを保ち,多くの自監督ベースラインが把握できない局所的なジオメトリーを維持できることを発見した。
論文 参考訳(メタデータ) (2020-11-01T17:41:32Z) - Adversarial Self-Supervised Scene Flow Estimation [15.278302535191866]
本研究では,自己監督型シーンフロー推定のためのメトリクス学習手法を提案する。
自己監督型シーンフロー推定のためのベンチマークであるScene Flow Sandboxについて概説する。
論文 参考訳(メタデータ) (2020-11-01T16:37:37Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - End-to-end Learning for Inter-Vehicle Distance and Relative Velocity
Estimation in ADAS with a Monocular Camera [81.66569124029313]
本稿では,ディープニューラルネットワークのエンドツーエンドトレーニングに基づくカメラによる車間距離と相対速度推定手法を提案する。
提案手法の重要な特徴は,2つの時間的単眼フレームによって提供される複数の視覚的手がかりの統合である。
また,移動場における視線歪みの影響を緩和する車両中心サンプリング機構を提案する。
論文 参考訳(メタデータ) (2020-06-07T08:18:31Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - LaserFlow: Efficient and Probabilistic Object Detection and Motion
Forecasting [12.707542598708338]
本稿では,LiDARからの3次元物体検出と動き予測の効率的な手法であるLaserFlowを提案する。
従来の手法とは異なり,本手法ではLiDARのネイティブレンジビュー表現を利用する。
本稿では,画像から時間的特徴を直接抽出し,マージするマルチスウィープ融合アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-12T19:13:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。