論文の概要: SGE: Structured Light System Based on Gray Code with an Event Camera
- arxiv url: http://arxiv.org/abs/2403.07326v1
- Date: Tue, 12 Mar 2024 05:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:55:58.740483
- Title: SGE: Structured Light System Based on Gray Code with an Event Camera
- Title(参考訳): SGE:イベントカメラを用いたグレーコードに基づく構造化光システム
- Authors: Xingyu Lu, Lei Sun, Diyang Gu, Zhijie Xu, Kaiwei Wang
- Abstract要約: イベントベースの構造化光システムに初めてGrayコードを導入します。
提案手法は,最先端の走査法に匹敵する精度を実現する。
提案手法は, 超高速, リアルタイム, 高精度深度推定のための, 極めて有望な解を提供する。
- 参考スコア(独自算出の注目度): 9.701291540219026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast and accurate depth sensing has long been a significant research
challenge. Event camera, as a device that quickly responds to intensity
changes, provides a new solution for structured light (SL) systems. In this
paper, we introduce Gray code into event-based SL systems for the first time.
Our setup includes an event camera and Digital Light Processing (DLP)
projector, enabling depth estimation through high-speed projection and decoding
of Gray code patterns. By employing spatio-temporal encoding for point
matching, our method is immune to timestamp noise, realizing high-speed depth
estimation without loss of accuracy. The binary nature of events and Gray code
minimizes data redundancy, enabling us to fully utilize sensor bandwidth at
100%. Experimental results show that our approach achieves accuracy comparable
to state-of-the-art scanning methods while surpassing them in data acquisition
speed (up to 41 times improvement) without sacrificing accuracy. Our proposed
approach offers a highly promising solution for ultra-fast, real-time, and
high-precision dense depth estimation. Code and dataset will be publicly
available.
- Abstract(参考訳): 高速で正確な深度検知は、長い間重要な研究課題であった。
イベントカメラは、強度変化に素早く反応するデバイスとして、構造化光(SL)システムのための新しいソリューションを提供する。
本稿では,イベントベースのSLシステムにGrayコードを初めて導入する。
我々のセットアップには、イベントカメラとDigital Light Processing (DLP)プロジェクタが含まれており、高速投影とグレーコードパターンの復号による深度推定を可能にする。
ポイントマッチングに時空間符号化を用いることで,タイムスタンプノイズに免疫を付与し,精度を損なわずに高精度な深さ推定を実現する。
イベントとグレイコードのバイナリ性はデータの冗長性を最小化し、センサ帯域幅を100%完全に活用することができます。
提案手法は, 精度を犠牲にすることなく, データ取得速度(最大41倍の精度)を超越しながら, 最先端の走査法に匹敵する精度を実現する。
提案手法は, 超高速, リアルタイム, 高精度深度推定のための, 極めて有望な解を提供する。
コードとデータセットが公開される。
関連論文リスト
- Characterization of point-source transient events with a rolling-shutter compressed sensing system [0.0]
ポイントソースの過渡イベント(PSTE)は、イメージングシステムにいくつかの課題をもたらす。
これらの要件を満たす従来のイメージングシステムは、価格、サイズ、重量、消費電力、データ帯域幅の点で費用がかかる。
画像システムのローリングシャッター読み出しに適応した新しい圧縮センシングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-29T19:22:37Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Gated2Gated: Self-Supervised Depth Estimation from Gated Images [22.415893281441928]
ゲーテッドカメラは、高解像度の3D深度でLiDARセンサーをスキャンする代替品として有望だ。
そこで本研究では,ゲート強度プロファイルと時間的一貫性をトレーニング信号として用いた完全自己教師型深度推定手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T19:47:38Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - 10-mega pixel snapshot compressive imaging with a hybrid coded aperture [48.95666098332693]
高解像度画像は私たちの日常生活で広く使われているが、高解像度モードで動作するカメラのフレームレートが低いため、高速ビデオ撮影は困難である。
既存の撮像システムの低スループット化への解決策として、スナップショットイメージング(SCI)が提案された。
論文 参考訳(メタデータ) (2021-06-30T01:09:24Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。