論文の概要: Structured light with a million light planes per second
- arxiv url: http://arxiv.org/abs/2411.18597v2
- Date: Sun, 06 Jul 2025 22:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.150341
- Title: Structured light with a million light planes per second
- Title(参考訳): 毎秒100万光面の構造光
- Authors: Dhawal Sirikonda, Praneeth Chakravarthula, Ioannis Gkioulekas, Adithya Pediredla,
- Abstract要約: フルフレームの3Dスキャンを1000text$で実現し,従来よりも4倍高速な構造光システムを提案する。
鍵となるイノベーションは、毎秒200万光面を投影できるカスタムの光学式光走査装置を使用することだ。
- 参考スコア(独自算出の注目度): 17.590896196214914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a structured light system that enables full-frame 3D scanning at speeds of $1000\text{ fps}$, four times faster than the previous fastest systems. Our key innovation is the use of a custom acousto-optic light scanning device capable of projecting two million light planes per second. Coupling this device with an event camera allows our system to overcome the key bottleneck preventing previous structured light systems based on event cameras from achieving higher scanning speeds -- the limited rate of illumination steering. Unlike these previous systems, ours uses the event camera's full-frame bandwidth, shifting the speed bottleneck from the illumination side to the imaging side. To mitigate this new bottleneck and further increase scanning speed, we introduce adaptive scanning strategies that leverage the event camera's asynchronous operation by selectively illuminating regions of interest, thereby achieving effective scanning speeds an order of magnitude beyond the camera's theoretical limit.
- Abstract(参考訳): フルフレームの3Dスキャンを,以前の最速のシステムより4倍高速な1000ドル以上の速さで実現できる構造化光システムを提案する。
私たちの重要なイノベーションは、毎秒200万光面を投影できるカスタムの光スキャンデバイスを使用することです。
このデバイスをイベントカメラと組み合わせることで、私たちのシステムは、イベントカメラに基づく以前の構造化された光システムがより高い走査速度(照明ステアリングの制限速度)を達成するのを防ぐ重要なボトルネックを克服することができます。
従来のシステムとは異なり、当社ではイベントカメラのフルフレーム帯域を使用し、照明側から撮像側へ速度ボトルネックをシフトさせています。
この新たなボトルネックを緩和し、さらに走査速度を向上させるために、興味のある領域を選択的に照らすことで、イベントカメラの非同期動作を活用する適応走査戦略を導入し、カメラの理論的限界を超えて、効果的な走査速度を実現する。
関連論文リスト
- Event fields: Capturing light fields at high speed, resolution, and dynamic range [9.2152453085337]
イベントフィールド(Event Fields)は、イベントカメラの革新的な光学設計を利用して、高速で光フィールドを捕捉する手法である。
イベントフィールドの基礎となる数学的フレームワークを開発し、それらを現実的に捉えるための2つの基礎的なフレームワークを導入します。
この新しい光センシングパラダイムは、写真、ロボティクス、AR/VRの新たな応用への扉を開き、レンダリングと機械学習における新たな課題を提示している。
論文 参考訳(メタデータ) (2024-12-09T04:02:49Z) - Event Cameras Meet SPADs for High-Speed, Low-Bandwidth Imaging [25.13346470561497]
イベントカメラと単光雪崩ダイオード(SPAD)センサーは、従来のカメラに代わる有望な代替手段として登場した。
これらの特性は相補的であり,低帯域幅で低照度かつ高速な画像再構成を実現するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-04-17T16:06:29Z) - Flying with Photons: Rendering Novel Views of Propagating Light [37.06220870989172]
本稿では,新しい移動カメラの視点から,シーンを通して伝播する光の映像を合成する画像・ニューラルレンダリング技術を提案する。
我々のアプローチは、ピコ秒レベルの時間分解能を持つファースト・オブ・イットタイプの多視点ビデオデータセットをキャプチャするための、新しい超高速撮像装置に依存している。
論文 参考訳(メタデータ) (2024-04-09T17:48:52Z) - Multi-Modal Neural Radiance Field for Monocular Dense SLAM with a
Light-Weight ToF Sensor [58.305341034419136]
単眼カメラと軽量ToFセンサを備えた初の高密度SLAMシステムを提案する。
本稿では,RGBカメラと軽量ToFセンサの両方の信号のレンダリングをサポートするマルチモーダル暗黙のシーン表現を提案する。
実験により,本システムは軽量なToFセンサの信号をうまく利用し,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2023-08-28T07:56:13Z) - Fusing Frame and Event Vision for High-speed Optical Flow for Edge
Application [2.048335092363435]
イベントカメラは、フレームレート制限を克服する継続的非同期イベントストリームを提供する。
フレームとイベントベースパイプラインの相補的精度と速度の利点を融合させ,高速な光フローを実現する。
論文 参考訳(メタデータ) (2022-07-21T19:15:05Z) - Single-Photon Structured Light [31.614032717665832]
単一光子構造光」は、露光中の光子到着の有無を示すバイナリイメージを検知することで機能する。
本研究では,プロジェクタやカメラデフォーカスのような短距離効果に対して頑健に設計した誤り訂正符号を用いた新しい時間系列を開発する。
我々の実験室のプロトタイプは、非常に低いアルベドや高速な動きの物体を含む困難なシナリオで3Dイメージングを行うことができる。
論文 参考訳(メタデータ) (2022-04-11T17:57:04Z) - 1000x Faster Camera and Machine Vision with Ordinary Devices [76.46540270145698]
我々は、光子の蓄積がしきい値に達したかどうかを各ビットが示すビットシーケンスアレイであるvidarを提示する。
我々は従来のカメラより1000倍高速なヴィダーカメラを開発した。
我々はまた、マシンの速度と生物学的視覚のメカニズムを組み合わせたスパイクニューラルネットワークベースのマシンビジョンシステムを開発した。
論文 参考訳(メタデータ) (2022-01-23T16:10:11Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Fast Generation and Detection of Spatial Modes of Light using an
Acousto-Optic Modulator [62.997667081978825]
光の空間モードは、古典的情報と量子的情報の両方を符号化するのに使用できる高次元空間を提供する。
これらのモードを動的に生成および測定するための現在のアプローチは、高解像度のフェーズマスクを再構成する必要があるため、遅い。
我々は、二重パスAOMを用いて、5つの軌道角運動量状態のうちの1つを生成することにより、このアプローチを実験的に実現した。
我々は、平均96.9%の忠実度で、任意の状態を1ミリ秒未満で再構築することができる。
論文 参考訳(メタデータ) (2020-07-31T14:58:30Z) - Correlation Plenoptic Imaging between Arbitrary Planes [52.77024349608834]
提案プロトコルは,処理後の集中面の変更を可能にし,画像解像度と被写界深度を前例のない組み合わせで実現可能であることを示す。
その結果、カオス光に基づく相関レンズ画像装置のコンパクト化や、絡み合った光子照明に基づく高SNRレンズ画像装置の開発への道が開かれた。
論文 参考訳(メタデータ) (2020-07-23T14:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。