論文の概要: Lumosaic: Hyperspectral Video via Active Illumination and Coded-Exposure Pixels
- arxiv url: http://arxiv.org/abs/2602.22140v1
- Date: Wed, 25 Feb 2026 17:42:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.932235
- Title: Lumosaic: Hyperspectral Video via Active Illumination and Coded-Exposure Pixels
- Title(参考訳): Lumosaic: アクティブイルミネーションと符号化露光カメラによるハイパースペクトルビデオ
- Authors: Dhruv Verma, Andrew Qiu, Roberto Rangel, Ayandev Barman, Hao Yang, Chenjia Hu, Fengqi Zhang, Roman Genov, David B. Lindell, Kiriakos N. Kutulakos, Alex Mariakakis,
- Abstract要約: Lumosaic(ルモザイク)は、ダイナミックシーンのリアルタイムキャプチャ用に設計された、コンパクトなアクティブハイパースペクトルビデオシステムである。
提案手法では、狭帯域LEDアレイと、高速で1画素当たりの露光制御が可能な符号化された露光画素カメラを組み合わせる。
- 参考スコア(独自算出の注目度): 19.00390495006801
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Lumosaic, a compact active hyperspectral video system designed for real-time capture of dynamic scenes. Our approach combines a narrowband LED array with a coded-exposure-pixel (CEP) camera capable of high-speed, per-pixel exposure control, enabling joint encoding of scene information across space, time, and wavelength within each video frame. Unlike passive snapshot systems that divide light across multiple spectral channels simultaneously and assume no motion during a frame's exposure, Lumosaic actively synchronizes illumination and pixel-wise exposure, improving photon utilization and preserving spectral fidelity under motion. A learning-based reconstruction pipeline then recovers 31-channel hyperspectral (400-700 nm) video at 30 fps and VGA resolution, producing temporally coherent and spectrally accurate reconstructions. Experiments on synthetic and real data demonstrate that Lumosaic significantly improves reconstruction fidelity and temporal stability over existing snapshot hyperspectral imaging systems, enabling robust hyperspectral video across diverse materials and motion conditions.
- Abstract(参考訳): 本稿では,ダイナミックシーンのリアルタイムキャプチャを目的とした,コンパクトな能動ハイパースペクトルビデオシステムであるLumosaicを紹介する。
提案手法は,狭帯域LEDアレイと符号化露光画素(CEP)カメラを併用して,高速かつ画素ごとの露光制御を実現し,映像フレーム内の空間,時間,波長の同時符号化を実現する。
複数のスペクトルチャネルに光を同時に分割し、フレームの露出中に動きを仮定しないパッシブスナップショットシステムとは異なり、ルモザイクは照明とピクセル単位の露光を積極的に同期させ、光子利用を改善し、動作中のスペクトルの忠実さを保存する。
学習に基づく再構築パイプラインは、31チャンネルのハイパースペクトル(400-700nm)ビデオを30fps、VGA解像度で再生し、時間的に一貫性があり、スペクトル的に正確な再構成を生成する。
合成および実データによる実験により、ルモザイクは既存のスナップショットハイパースペクトルイメージングシステムに対して、再構成の忠実度と時間的安定性を著しく改善し、多様な材料や運動条件をまたいだ堅牢なハイパースペクトルビデオを可能にすることが示された。
関連論文リスト
- RocSync: Millisecond-Accurate Temporal Synchronization for Heterogeneous Camera Systems [38.099313678683224]
多様なカメラシステム間でミリ秒レベルの時間的アライメントを実現するための,低コストで汎用的な同期方式を提案する。
提案したソリューションは、赤と赤で時間をエンコードし、露光ウィンドウの視覚的デコードを可能にする、カスタムビルドの itLED クロックを採用している。
IRとRGBの両モードにまたがる25以上の異種カメラを用いた大規模な手術記録において,本システムの有効性を検証した。
論文 参考訳(メタデータ) (2025-11-18T22:13:06Z) - DriveGen3D: Boosting Feed-Forward Driving Scene Generation with Efficient Video Diffusion [62.589889759543446]
DriveGen3Dは、高品質で制御可能な動的3D駆動シーンを生成するための新しいフレームワークである。
本研究は,映像の高速化と大規模動的シーン再構築を融合させることにより,この手法のギャップを埋めるものである。
論文 参考訳(メタデータ) (2025-10-17T03:00:08Z) - Video Forgery Detection with Optical Flow Residuals and Spatial-Temporal Consistency [1.7061868168035932]
本稿では,RGBの外観特徴と光流動残差を組み合わせ,空間的時間的整合性を利用する検出フレームワークを提案する。
これらの相補的特徴を統合することにより,提案手法は広範囲の偽動画を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-01T07:51:35Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Event-Enhanced Snapshot Compressive Videography at 10K FPS [33.20071708537498]
ビデオスナップショット圧縮画像(SCI)は、ターゲットのダイナミックシーンをコンパクトにスナップショットに符号化し、その後、その高速フレームシーケンスを再構成する。
本稿では,イベントカメラをビデオSCI設定に組み込んだハイブリッド"インテンシティ+イベント"イメージング手法を提案する。
高速CMOSイメージセンサを24FPSで動作させることで、0.1msの時間間隔で高品質なビデオ撮影を実現する。
論文 参考訳(メタデータ) (2024-04-11T08:34:10Z) - Flying with Photons: Rendering Novel Views of Propagating Light [37.06220870989172]
本稿では,新しい移動カメラの視点から,シーンを通して伝播する光の映像を合成する画像・ニューラルレンダリング技術を提案する。
我々のアプローチは、ピコ秒レベルの時間分解能を持つファースト・オブ・イットタイプの多視点ビデオデータセットをキャプチャするための、新しい超高速撮像装置に依存している。
論文 参考訳(メタデータ) (2024-04-09T17:48:52Z) - Learning Spatial Adaptation and Temporal Coherence in Diffusion Models for Video Super-Resolution [151.1255837803585]
ビデオ超解像のための空間適応と時間コヒーレンス(SATeCo)を追求する新しい手法を提案する。
SATeCoは低解像度ビデオから時空間ガイダンスを学習し、潜時空間高解像度ビデオデノイングとピクセル空間ビデオ再構成の両方を校正する。
REDS4データセットとVid4データセットを用いて行った実験は、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-25T17:59:26Z) - Event-based Asynchronous HDR Imaging by Temporal Incident Light Modulation [54.64335350932855]
我々は,HDRイメージングの課題に関する重要な知見に基づいて,Pixel-Asynchronous HDRイメージングシステムを提案する。
提案システムでは,DVS(Dynamic Vision Sensors)とLCDパネルを統合する。
LCDパネルは、その透過性を変化させてDVSの照射インシデントを変調し、ピクセル非依存のイベントストリームをトリガーする。
論文 参考訳(メタデータ) (2024-03-14T13:45:09Z) - Joint Video Multi-Frame Interpolation and Deblurring under Unknown
Exposure Time [101.91824315554682]
本研究では,より現実的で挑戦的なタスク – 複数フレームのジョイントビデオと,未知の露光時間下での劣化 – を野心的に目標とする。
我々はまず,入力されたぼやけたフレームから露出認識表現を構築するために,教師付きコントラスト学習の変種を採用する。
次に、プログレッシブ露光適応型畳み込みと動き改善による露出と動きの表現に基づいて、映像再構成ネットワークを構築した。
論文 参考訳(メタデータ) (2023-03-27T09:43:42Z) - H2-Stereo: High-Speed, High-Resolution Stereoscopic Video System [39.95458608416292]
高分解能立体視(H2-Stereo)ビデオは、動的3Dコンテンツを微妙に知覚することができる。
既存の手法は、時間的または空間的な詳細を欠いた妥協された解決策を提供する。
本稿では,高解像度低フレームレート(HSR-LFR)映像を空間的詳細で撮影するデュアルカメラシステムを提案する。
そこで我々は,H2-Stereo ビデオの効率的な再構成にクロスカメラ冗長性を利用する学習情報融合ネットワーク (LIFnet) を考案した。
論文 参考訳(メタデータ) (2022-08-04T04:06:01Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。