論文の概要: SimuGAN: Unsupervised forward modeling and optimal design of a LIDAR
Camera
- arxiv url: http://arxiv.org/abs/2012.08951v1
- Date: Wed, 16 Dec 2020 13:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 12:11:52.406516
- Title: SimuGAN: Unsupervised forward modeling and optimal design of a LIDAR
Camera
- Title(参考訳): SimuGAN:LIDARカメラの教師なし前方モデリングと最適設計
- Authors: Nir Diamant and Tal Mund and Ohad Menashe and Aviad Zabatani and Alex
M. Bronstein
- Abstract要約: 短距離用省エネルギーLIDARカメラは、時間的に強度符号化されたレーザー光パルスを用いて物体の距離を推定する。
後方散乱パルスはノイズと不安定であり、不正確で信頼性の低い深さ推定に繋がる。
我々は,GAN(Generative Adversarial Networks)を用いて,複雑なクラス分布の学習を行う。
- 参考スコア(独自算出の注目度): 3.104430491846432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Energy-saving LIDAR camera for short distances estimates an object's distance
using temporally intensity-coded laser light pulses and calculates the maximum
correlation with the back-scattered pulse.
Though on low power, the backs-scattered pulse is noisy and unstable, which
leads to inaccurate and unreliable depth estimation.
To address this problem, we use GANs (Generative Adversarial Networks), which
are two neural networks that can learn complicated class distributions through
an adversarial process. We learn the LIDAR camera's hidden properties and
behavior, creating a novel, fully unsupervised forward model that simulates the
camera. Then, we use the model's differentiability to explore the camera
parameter space and optimize those parameters in terms of depth, accuracy, and
stability. To achieve this goal, we also propose a new custom loss function
designated to the back-scattered code distribution's weaknesses and its
circular behavior. The results are demonstrated on both synthetic and real
data.
- Abstract(参考訳): 短距離用省エネルギーlidarカメラは、時間的強度符号化レーザ光パルスを用いて物体の距離を推定し、後方散乱パルスとの最大相関を計算する。
低電力では、バックス散乱パルスはノイズと不安定であり、不正確で信頼性の低い深さ推定に繋がる。
この問題に対処するために、私たちは2つのニューラルネットワークであるGAN(Generative Adversarial Networks)を使用します。
lidarカメラの隠れた特性と動作を学習し、カメラをシミュレートする新しい教師なしのフォワードモデルを作成しました。
次に,モデルの微分可能性を用いてカメラパラメータ空間を探索し,そのパラメータを深さ,精度,安定性の観点から最適化する。
また,この目的を達成するために,後方散乱コード分布の弱点とその円形挙動に指定された新たなカスタム損失関数を提案する。
結果は合成データと実データの両方で示される。
関連論文リスト
- bit2bit: 1-bit quanta video reconstruction via self-supervised photon prediction [57.199618102578576]
疎二分量時間画像データから高画質の画像スタックを元の解像度で再構成する新しい方法であるbit2bitを提案する。
Poisson denoisingの最近の研究に触発されて、スパースバイナリ光子データから高密度な画像列を生成するアルゴリズムを開発した。
本研究では,様々な課題の画像条件下でのSPADの高速映像を多種多種に含む新しいデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:30:35Z) - A Novel Spike Transformer Network for Depth Estimation from Event Cameras via Cross-modality Knowledge Distillation [3.355813093377501]
イベントカメラは従来のデジタルカメラとは異なる動作をし、データを継続的にキャプチャし、時間、位置、光強度を符号化するバイナリスパイクを生成する。
これは、イベントカメラに適した革新的でスパイク対応のアルゴリズムの開発を必要とする。
スパイクカメラデータから深度推定を行うために,純粋にスパイク駆動のスパイク変圧器ネットワークを提案する。
論文 参考訳(メタデータ) (2024-04-26T11:32:53Z) - RANRAC: Robust Neural Scene Representations via Random Ray Consensus [12.161889666145127]
RANRAC(RANdom RAy Consensus)は、一貫性のないデータの影響を排除するための効率的な手法である。
我々はRANSACパラダイムのファジィ適応を定式化し、大規模モデルへの適用を可能にした。
その結果, 新規な視点合成のための最先端のロバストな手法と比較して, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-12-15T13:33:09Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Optical flow estimation from event-based cameras and spiking neural
networks [0.4899818550820575]
イベントベースセンサーはスパイキングニューラルネットワーク(SNN)に最適である
教師付きトレーニング後,高密度光フロー推定が可能なU-NetライクなSNNを提案する。
分離可能な畳み込みにより、我々は、合理的に正確な光フロー推定が得られる光モデルを開発することができた。
論文 参考訳(メタデータ) (2023-02-13T16:17:54Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Energy networks for state estimation with random sensors using sparse
labels [0.0]
本稿では,スパースラベルから学習可能な暗黙の最適化層と物理に基づく損失関数を用いた手法を提案する。
この手法に基づいて、空間における離散的および連続的な予測のための2つのモデルを示す。
論文 参考訳(メタデータ) (2022-03-12T15:15:38Z) - RVMDE: Radar Validated Monocular Depth Estimation for Robotics [5.360594929347198]
両眼視センサの固有剛性校正は正確な深度推定に不可欠である。
あるいは、単眼カメラは、深度推定の精度を犠牲にして制限を緩和し、厳しい環境条件下では課題が悪化する。
本研究は, 環境条件下での深度推定のために, 単眼カメラの細粒度データと融合した場合のレーダーからの粗い信号の有用性について検討する。
論文 参考訳(メタデータ) (2021-09-11T12:02:29Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。