論文の概要: Structured light with a million light planes per second
- arxiv url: http://arxiv.org/abs/2411.18597v1
- Date: Wed, 27 Nov 2024 18:44:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:26:17.185528
- Title: Structured light with a million light planes per second
- Title(参考訳): 毎秒100万光面の構造光
- Authors: Dhawal Sirikonda, Praneeth Chakravarthula, Ioannis Gkioulekas, Adithya Pediredla,
- Abstract要約: フルフレームの深度を毎秒1,000フレームの速度でキャプチャする構造化光システムを導入する。
重要なイノベーションは、光平面を毎秒200万の速度でスキャンできる光学式光走査デバイスの設計だ。
- 参考スコア(独自算出の注目度): 17.590896196214914
- License:
- Abstract: We introduce a structured light system that captures full-frame depth at rates of a thousand frames per second, four times faster than the previous state of the art. Our key innovation to this end is the design of an acousto-optic light scanning device that can scan light planes at rates up to two million planes per second. We combine this device with an event camera for structured light, using the sparse events triggered on the camera as we sweep a light plane on the scene for depth triangulation. In contrast to prior work, where light scanning is the bottleneck towards faster structured light operation, our light scanning device is three orders of magnitude faster than the event camera's full-frame bandwidth, thus allowing us to take full advantage of the event camera's fast operation. To surpass this bandwidth, we additionally demonstrate adaptive scanning of only regions of interest, at speeds an order of magnitude faster than the theoretical full-frame limit for event cameras.
- Abstract(参考訳): フルフレームの深度を毎秒1,000フレームの速度で捉え,従来の最先端の4倍の速度で撮影する構造光システムを提案する。
この目的の鍵となるイノベーションは、光平面を毎秒最大200万の速度でスキャンできる光走査装置の設計です。
我々は、このデバイスを構造化された光のためのイベントカメラと組み合わせ、深度三角測量のために現場のライトプレーンを掃除する際に、カメラにトリガーされるスパースイベントを使用する。
光走査がより高速な構造光操作のボトルネックとなる従来の作業とは対照的に、我々の光走査装置は、イベントカメラのフルフレーム帯域よりも3桁高速であるので、イベントカメラの高速動作を最大限に活用することができる。
この帯域を超えるために、イベントカメラの理論的フルフレーム限界よりも高速な速度で、興味のある領域のみを適応走査する。
関連論文リスト
- Event fields: Capturing light fields at high speed, resolution, and dynamic range [9.2152453085337]
イベントフィールド(Event Fields)は、イベントカメラの革新的な光学設計を利用して、高速で光フィールドを捕捉する手法である。
イベントフィールドの基礎となる数学的フレームワークを開発し、それらを現実的に捉えるための2つの基礎的なフレームワークを導入します。
この新しい光センシングパラダイムは、写真、ロボティクス、AR/VRの新たな応用への扉を開き、レンダリングと機械学習における新たな課題を提示している。
論文 参考訳(メタデータ) (2024-12-09T04:02:49Z) - Event Cameras Meet SPADs for High-Speed, Low-Bandwidth Imaging [25.13346470561497]
イベントカメラと単光雪崩ダイオード(SPAD)センサーは、従来のカメラに代わる有望な代替手段として登場した。
これらの特性は相補的であり,低帯域幅で低照度かつ高速な画像再構成を実現するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-04-17T16:06:29Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Fusing Frame and Event Vision for High-speed Optical Flow for Edge
Application [2.048335092363435]
イベントカメラは、フレームレート制限を克服する継続的非同期イベントストリームを提供する。
フレームとイベントベースパイプラインの相補的精度と速度の利点を融合させ,高速な光フローを実現する。
論文 参考訳(メタデータ) (2022-07-21T19:15:05Z) - Single-Photon Structured Light [31.614032717665832]
単一光子構造光」は、露光中の光子到着の有無を示すバイナリイメージを検知することで機能する。
本研究では,プロジェクタやカメラデフォーカスのような短距離効果に対して頑健に設計した誤り訂正符号を用いた新しい時間系列を開発する。
我々の実験室のプロトタイプは、非常に低いアルベドや高速な動きの物体を含む困難なシナリオで3Dイメージングを行うことができる。
論文 参考訳(メタデータ) (2022-04-11T17:57:04Z) - 1000x Faster Camera and Machine Vision with Ordinary Devices [76.46540270145698]
我々は、光子の蓄積がしきい値に達したかどうかを各ビットが示すビットシーケンスアレイであるvidarを提示する。
我々は従来のカメラより1000倍高速なヴィダーカメラを開発した。
我々はまた、マシンの速度と生物学的視覚のメカニズムを組み合わせたスパイクニューラルネットワークベースのマシンビジョンシステムを開発した。
論文 参考訳(メタデータ) (2022-01-23T16:10:11Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Fast Generation and Detection of Spatial Modes of Light using an
Acousto-Optic Modulator [62.997667081978825]
光の空間モードは、古典的情報と量子的情報の両方を符号化するのに使用できる高次元空間を提供する。
これらのモードを動的に生成および測定するための現在のアプローチは、高解像度のフェーズマスクを再構成する必要があるため、遅い。
我々は、二重パスAOMを用いて、5つの軌道角運動量状態のうちの1つを生成することにより、このアプローチを実験的に実現した。
我々は、平均96.9%の忠実度で、任意の状態を1ミリ秒未満で再構築することができる。
論文 参考訳(メタデータ) (2020-07-31T14:58:30Z) - Correlation Plenoptic Imaging between Arbitrary Planes [52.77024349608834]
提案プロトコルは,処理後の集中面の変更を可能にし,画像解像度と被写界深度を前例のない組み合わせで実現可能であることを示す。
その結果、カオス光に基づく相関レンズ画像装置のコンパクト化や、絡み合った光子照明に基づく高SNRレンズ画像装置の開発への道が開かれた。
論文 参考訳(メタデータ) (2020-07-23T14:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。