論文の概要: Sensor Equivariance by LiDAR Projection Images
- arxiv url: http://arxiv.org/abs/2305.00221v1
- Date: Sat, 29 Apr 2023 10:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 16:32:17.807839
- Title: Sensor Equivariance by LiDAR Projection Images
- Title(参考訳): LiDAR投影画像によるセンサの等価性
- Authors: Hannes Reichert, Manuel Hetzel, Steven Schreck, Konrad Doll, and
Bernhard Sick
- Abstract要約: 本稿では、関連する投影特性を符号化した追加チャネルによる従来の画像データの拡張を提案する。
これは、LiDARのような投影型センサーにおけるセンサ依存オブジェクト表現の問題に対処する。
- 参考スコア(独自算出の注目度): 4.413278371057897
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we propose an extension of conventional image data by an
additional channel in which the associated projection properties are encoded.
This addresses the issue of sensor-dependent object representation in
projection-based sensors, such as LiDAR, which can lead to distorted physical
and geometric properties due to variations in sensor resolution and field of
view. To that end, we propose an architecture for processing this data in an
instance segmentation framework. We focus specifically on LiDAR as a key sensor
modality for machine vision tasks and highly automated driving (HAD). Through
an experimental setup in a controlled synthetic environment, we identify a bias
on sensor resolution and field of view and demonstrate that our proposed method
can reduce said bias for the task of LiDAR instance segmentation. Furthermore,
we define our method such that it can be applied to other projection-based
sensors, such as cameras. To promote transparency, we make our code and dataset
publicly available. This method shows the potential to improve performance and
robustness in various machine vision tasks that utilize projection-based
sensors.
- Abstract(参考訳): 本研究では,関連した投影特性を符号化した追加チャネルによる従来の画像データの拡張を提案する。
このことは、LiDARのような射影型センサーにおけるセンサ依存のオブジェクト表現の問題に対処し、センサの解像度や視野の変化による物理的および幾何学的性質の歪みを引き起こす可能性がある。
そこで我々は,このデータをインスタンスセグメンテーションフレームワークで処理するためのアーキテクチャを提案する。
我々は、機械ビジョンタスクと高度自動運転(HAD)のためのキーセンサーモダリティとして、特にLiDARに焦点を当てる。
制御された合成環境における実験的な設定により,センサ解像度と視野のバイアスを同定し,提案手法がlidarインスタンスのセグメンテーションにおけるバイアスを低減できることを実証する。
さらに,カメラなどの他の投影型センサにも適用可能な手法を定義した。
透明性を促進するため、コードとデータセットを公開しています。
本手法は,プロジェクションベースセンサを用いた各種マシンビジョンタスクの性能向上とロバスト性向上の可能性を示す。
関連論文リスト
- Data-Induced Interactions of Sparse Sensors [3.050919759387984]
トレーニングデータによって引き起こされるセンサインタラクションの全体像を熱力学ビューで計算する。
これらのデータによって引き起こされるセンサーの相互作用をマッピングすることで、外部選択基準と組み合わせ、センサーの代替効果を予測することができる。
論文 参考訳(メタデータ) (2023-07-21T18:13:37Z) - Instance Segmentation with Cross-Modal Consistency [13.524441194366544]
本稿では,複数センサモードの測定を協調的に活用するインスタンスセグメンテーションへの新しいアプローチを提案する。
本手法は, センサ・モダリティと時間領域の両面において, 現場の点に対してコントラスト学習を適用した。
この定式化は、視点の変化に不変な埋め込みを学ぶことをモデルに促すことを実証する。
論文 参考訳(メタデータ) (2022-10-14T21:17:19Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Mapping LiDAR and Camera Measurements in a Dual Top-View Grid
Representation Tailored for Automated Vehicles [3.337790639927531]
本稿では,LiDARやカメラなどの画像センサのための汎用的な網網マッピングパイプラインを提案する。
グリッドに基づく明らかなモデルでは,セル占有率と接地率を別々に推定する。
本手法は,セル占有率を高精細度かつ高精細度に評価し,効率を最大化し,外部処理モジュールへの依存性を最小限に抑える。
論文 参考訳(メタデータ) (2022-04-16T23:51:20Z) - Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor [0.06554326244334865]
本研究は,高度ライダーセンサのイメージライクな出力処理のための汎用DL認識アルゴリズムの可能性について検討する。
3次元の点クラウドデータを処理するのではなく、私たちの知る限りでは、360textの視野を持つ低解像度の画像にフォーカスする最初の試みである。
適切な事前処理を行うことで、汎用DLモデルはこれらの画像を処理し、環境条件下での使用への扉を開くことができることを示す。
論文 参考訳(メタデータ) (2022-03-08T13:14:43Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。