論文の概要: GenRadar: Self-supervised Probabilistic Camera Synthesis based on Radar
Frequencies
- arxiv url: http://arxiv.org/abs/2107.08948v1
- Date: Mon, 19 Jul 2021 15:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 15:12:14.672888
- Title: GenRadar: Self-supervised Probabilistic Camera Synthesis based on Radar
Frequencies
- Title(参考訳): GenRadar: レーダ周波数に基づく自己教師型確率カメラ合成
- Authors: Carsten Ditzel and Klaus Dietmayer
- Abstract要約: この研究は、確率的シーン再構築のための独自の自己学習融合アプローチにおいて、両方のセンサタイプの相補的な強度を組み合わせる。
提案アルゴリズムは類似性を生かし、訓練中に異なる特徴レベルで両方のドメイン間の対応を確立する。
これらの離散トークンは、最終的にそれぞれの周囲のインストラクティブなビューに変換され、潜在的な危険を視覚的に知覚することができる。
- 参考スコア(独自算出の注目度): 12.707035083920227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous systems require a continuous and dependable environment perception
for navigation and decision-making, which is best achieved by combining
different sensor types. Radar continues to function robustly in compromised
circumstances in which cameras become impaired, guaranteeing a steady inflow of
information. Yet, camera images provide a more intuitive and readily applicable
impression of the world. This work combines the complementary strengths of both
sensor types in a unique self-learning fusion approach for a probabilistic
scene reconstruction in adverse surrounding conditions. After reducing the
memory requirements of both high-dimensional measurements through a decoupled
stochastic self-supervised compression technique, the proposed algorithm
exploits similarities and establishes correspondences between both domains at
different feature levels during training. Then, at inference time, relying
exclusively on radio frequencies, the model successively predicts camera
constituents in an autoregressive and self-contained process. These discrete
tokens are finally transformed back into an instructive view of the respective
surrounding, allowing to visually perceive potential dangers for important
tasks downstream.
- Abstract(参考訳): 自律システムは、ナビゲーションと意思決定のために連続的で信頼性の高い環境認識を必要とする。
レーダーは、安定した情報の流入を保証するため、カメラが故障した状況下で頑強に機能し続けている。
しかし、カメラ画像はより直感的で容易に世界への印象を与える。
本研究は, 環境条件下での確率的シーン再構築のための独自の自己学習融合アプローチにおいて, 両センサタイプの相補的強度を組み合わせる。
切り離された確率的自己教師圧縮技術により、両方の高次元測定のメモリ要求を低減した後、提案アルゴリズムは類似性を活用し、訓練中に異なる特徴レベルで両方のドメイン間の対応を確立する。
そして、無線周波数のみに依存する推論時に、自己回帰的で自己完結したプロセスにおいて、カメラ構成要素を逐次予測する。
これらの離散トークンは、最終的にそれぞれの周囲のインストラクティブなビューに変換され、重要なタスクの潜在的な危険を視覚的に知覚することができる。
関連論文リスト
- Fisheye Camera and Ultrasonic Sensor Fusion For Near-Field Obstacle
Perception in Bird's-Eye-View [4.536942273206611]
本稿では,鳥眼ビュー(BEV)の観点からの効率的な障害物認識に適した,エンド・ツー・エンドのマルチモーダル融合モデルを提案する。
魚眼カメラは、後部障害物の定位を含む包括的サラウンドビューの知覚によく使用される。
しかし、このようなカメラの性能は、夜間の低照度、強烈な太陽の輝きにさらされた場合、著しく劣化する可能性がある。
論文 参考訳(メタデータ) (2024-02-01T14:52:16Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - ReDFeat: Recoupling Detection and Description for Multimodal Feature
Learning [51.07496081296863]
我々は、相互重み付け戦略による多モーダル特徴学習の検出と記述の独立した制約を再定義する。
本研究では,大きな受容場を有し,学習可能な非最大抑制層を備える検出器を提案する。
我々は,特徴マッチングと画像登録タスクにおける特徴量を評価するために,クロス可視,赤外線,近赤外,合成開口レーダ画像ペアを含むベンチマークを構築した。
論文 参考訳(メタデータ) (2022-05-16T04:24:22Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - Camera Invariant Feature Learning for Generalized Face Anti-spoofing [95.30490139294136]
本稿では,特徴レベルの取得カメラから固有のばらつきの影響を排除したフレームワークについて述べる。
実験により、提案手法はデータセット内設定とデータセット間設定の両方でより良いパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2021-01-25T13:40:43Z) - YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors [4.396860522241306]
本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-10-07T10:40:02Z) - Camera-Lidar Integration: Probabilistic sensor fusion for semantic
mapping [8.18198392834469]
自動走行車は、常に変化する環境の中を移動しながら、3次元の世界における物体/障害物を知覚し、認識できなければならない。
本稿では,センサリーダ(カメラ,ライダー,IMU,ホイールエンコーダ)の不確実性,車両の動作の補償,セマンティックイメージのラベル確率を組み込んだ確率パイプラインを提案する。
論文 参考訳(メタデータ) (2020-07-09T07:59:39Z) - Semantic sensor fusion: from camera to sparse lidar information [7.489722641968593]
本稿では,異なる感覚情報,光検出・ランキング(ライダー)スキャン,カメラ画像の融合手法を提案する。
ラベル付き画像とライダー点雲間の意味情報の転送を4ステップで行う。
論文 参考訳(メタデータ) (2020-03-04T03:09:33Z) - Learning Selective Sensor Fusion for States Estimation [47.76590539558037]
本稿では,エンド・ツー・エンドのセンサ・フュージョン・モジュールであるSelectFusionを提案する。
予測中、ネットワークは異なるセンサーモードから潜伏する特徴の信頼性を評価することができる。
我々は、公開データセットと漸進的に劣化したデータセットの両方において、すべての融合戦略を広範囲に評価する。
論文 参考訳(メタデータ) (2019-12-30T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。