論文の概要: Generating Photo-realistic Images from LiDAR Point Clouds with
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2112.11245v1
- Date: Mon, 20 Dec 2021 05:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:46:36.817602
- Title: Generating Photo-realistic Images from LiDAR Point Clouds with
Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いたLiDAR点雲からのフォトリアリスティック画像の生成
- Authors: Nuriel Shalom Mor
- Abstract要約: 我々は点雲画像ペアのデータセットを作成し、反射率と距離情報を含むLiDAR点雲から画像を予測するためにGANを訓練した。
私たちのモデルは、雲のデータから現実的に見えるイメージを予測する方法を学びました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We examined the feasibility of generative adversarial networks (GANs) to
generate photo-realistic images from LiDAR point clouds. For this purpose, we
created a dataset of point cloud image pairs and trained the GAN to predict
photorealistic images from LiDAR point clouds containing reflectance and
distance information. Our models learned how to predict realistically looking
images from just point cloud data, even images with black cars. Black cars are
difficult to detect directly from point clouds because of their low level of
reflectivity. This approach might be used in the future to perform visual
object recognition on photorealistic images generated from LiDAR point clouds.
In addition to the conventional LiDAR system, a second system that generates
photorealistic images from LiDAR point clouds would run simultaneously for
visual object recognition in real-time. In this way, we might preserve the
supremacy of LiDAR and benefit from using photo-realistic images for visual
object recognition without the usage of any camera. In addition, this approach
could be used to colorize point clouds without the usage of any camera images.
- Abstract(参考訳): LiDAR点雲から写真リアル画像を生成するためのGAN(Generative Adversarial Network)の実現可能性を検討した。
この目的のために,点雲画像ペアのデータセットを作成し,反射率と距離情報を含むライダー点雲からganをトレーニングした。
私たちのモデルは、雲のデータから現実的に見えるイメージを予測する方法を学びました。
ブラックカーは反射率が低いため、点雲から直接検出することが難しい。
このアプローチは将来的に、LiDAR点雲から生成されたフォトリアリスティック画像の視覚的物体認識に使用されるかもしれない。
従来のLiDARシステムに加えて、LiDARポイントクラウドからフォトリアリスティック画像を生成する第2のシステムは、リアルタイムで視覚オブジェクト認識のために同時に実行される。
このようにして、LiDARの優位性を保ち、カメラを使わずに視覚オブジェクト認識にフォトリアリスティック画像を使用することの恩恵を受けることができる。
さらに、このアプローチは、カメライメージを使わずに点雲を着色するのに使うことができる。
関連論文リスト
- HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - GAN-Based LiDAR Intensity Simulation [3.8697834534260447]
私たちは、実際のテストドライブからカメライメージとLiDARスキャンを変換するために、GANをトレーニングします。
我々は,物体検出ネットワークが実点と合成点の雲をいかに一般化するかをテストすることで,LiDARシミュレーションの性能を検証した。
論文 参考訳(メタデータ) (2023-11-26T20:44:09Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Lateral Ego-Vehicle Control without Supervision using Point Clouds [50.40632021583213]
既存の視覚に基づく横方向の車両制御に対する教師付きアプローチは、RGB画像を適切な操舵コマンドに直接マッピングすることができる。
本稿では、横方向の車両制御のための、より堅牢でスケーラブルなモデルをトレーニングするためのフレームワークを提案する。
オンライン実験により,本手法の性能は教師付きモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-03-20T21:57:32Z) - Privacy Preserving Visual SLAM [11.80598014760818]
本研究では、カメラのポーズを推定し、混合線と点雲によるバンドル調整をリアルタイムで行うためのプライバシー保護型Visual SLAMフレームワークを提案する。
従来の研究では、単一画像や再構成点雲のラインクラウドマップを用いて、カメラのポーズを推定するローカライズ手法が提案されている。
当社のフレームワークは,行クラウドマップを用いて,意図したプライバシ保護の形成とリアルタイムパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-20T18:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。