論文の概要: Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor
- arxiv url: http://arxiv.org/abs/2203.04064v1
- Date: Tue, 8 Mar 2022 13:14:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 15:46:17.211711
- Title: Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor
- Title(参考訳): カメラセンサとしてのライダー画像を用いた汎用ディープラーニング検出とセグメンテーションモデルの解析
- Authors: Yu Xianjia, Sahar Salimpour, Jorge Pe\~na Queralta, Tomi Westerlund
- Abstract要約: 本研究は,高度ライダーセンサのイメージライクな出力処理のための汎用DL認識アルゴリズムの可能性について検討する。
3次元の点クラウドデータを処理するのではなく、私たちの知る限りでは、360textの視野を持つ低解像度の画像にフォーカスする最初の試みである。
適切な事前処理を行うことで、汎用DLモデルはこれらの画像を処理し、環境条件下での使用への扉を開くことができることを示す。
- 参考スコア(独自算出の注目度): 0.06554326244334865
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the last decade, robotic perception algorithms have significantly
benefited from the rapid advances in deep learning (DL). Indeed, a significant
amount of the autonomy stack of different commercial and research platforms
relies on DL for situational awareness, especially vision sensors. This work
explores the potential of general-purpose DL perception algorithms,
specifically detection and segmentation neural networks, for processing
image-like outputs of advanced lidar sensors. Rather than processing the
three-dimensional point cloud data, this is, to the best of our knowledge, the
first work to focus on low-resolution images with 360\textdegree field of view
obtained with lidar sensors by encoding either depth, reflectivity, or
near-infrared light in the image pixels. We show that with adequate
preprocessing, general-purpose DL models can process these images, opening the
door to their usage in environmental conditions where vision sensors present
inherent limitations. We provide both a qualitative and quantitative analysis
of the performance of a variety of neural network architectures. We believe
that using DL models built for visual cameras offers significant advantages due
to the much wider availability and maturity compared to point cloud-based
perception.
- Abstract(参考訳): 過去10年間で、ロボット認識アルゴリズムは、ディープラーニング(DL)の急速な進歩から大きな恩恵を受けている。
実際、さまざまな商用および研究プラットフォームの自律的なスタックのかなりの量は、状況認識、特に視覚センサーのためのDLに依存している。
本研究は,高度なライダーセンサのイメージライクな出力を処理するための汎用DL認識アルゴリズム,特に検出とセグメンテーションニューラルネットワークの可能性を探る。
3次元の点雲データを処理するのではなく、画像画素内の奥行き、反射率、近赤外光を符号化することにより、ライダーセンサーで得られる360度視野の低解像度画像に焦点を合わせた最初の研究である。
適切な事前処理を行うことで、汎用的なDLモデルはこれらの画像を処理でき、視覚センサが固有の限界を示す環境条件下での使用への扉を開くことができる。
我々は、様々なニューラルネットワークアーキテクチャの性能を定性的かつ定量的に分析する。
視覚カメラ用に構築されたDLモデルを使用することは、ポイントクラウドベースの認識よりもはるかに可用性と成熟度が高いため、大きなメリットがあると考えています。
関連論文リスト
- BenchCloudVision: A Benchmark Analysis of Deep Learning Approaches for
Cloud Detection and Segmentation in Remote Sensing Imagery [0.0]
本稿では,雲の識別に応用した7つの最先端セマンティックセマンティックセマンティクスと検出アルゴリズムについて検討する。
モデルの適応性を高めるために、トレーニング中に使用される画像の種類とスペクトル帯域の量を含む重要な要素を解析する。
研究は、少数のスペクトルバンドだけでクラウドセグメンテーションを実行できる機械学習アルゴリズムを作成しようとしている。
論文 参考訳(メタデータ) (2024-02-21T16:32:43Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - PointHPS: Cascaded 3D Human Pose and Shape Estimation from Point Clouds [99.60575439926963]
本稿では,実環境で捉えた点雲から正確な3次元HPSを実現するための基本的フレームワークであるPointHPSを提案する。
PointHPSは、カスケードアーキテクチャを通じてポイント機能を反復的に洗練する。
広範囲な実験により、ポイントHPSは強力な特徴抽出と処理方式を持ち、State-of-the-Art法より優れていることが示された。
論文 参考訳(メタデータ) (2023-08-28T11:10:14Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Depth Monocular Estimation with Attention-based Encoder-Decoder Network
from Single Image [7.753378095194288]
ビジョンベースのアプローチは最近多くの注目を集めており、これらの欠点を克服することができる。
本研究では,格子状アーチファクトやぼやけたエッジに悩まされている1つの単眼画像から深度マップを推定する。
我々の新しいアプローチは、最小限のオーバーヘッドで現在の画像の焦点を見つけることができ、奥行き特性の損失を避けることができる。
論文 参考訳(メタデータ) (2022-10-24T23:01:25Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - View Invariant Human Body Detection and Pose Estimation from Multiple
Depth Sensors [0.7080990243618376]
本稿では,複数地点のクラウドソースを用いて,エンドツーエンドの多対人3Dポーズ推定ネットワークであるPoint R-CNNを提案する。
我々は、個別のカメラ故障、様々なターゲットの外観、複雑な散らかったシーンなど、現実の課題をシミュレートする広範囲な実験を行った。
一方、私たちのエンドツーエンドネットワークは、カスケードされた最先端モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2020-05-08T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。