論文の概要: Learning to See Through Flare
- arxiv url: http://arxiv.org/abs/2508.13907v1
- Date: Tue, 19 Aug 2025 15:06:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.977681
- Title: Learning to See Through Flare
- Title(参考訳): フレアを通して見ることを学ぶ
- Authors: Xiaopeng Peng, Heath Gemar, Erin Fleet, Kyle Novak, Abbie Watnik, Grover Swartzlander,
- Abstract要約: フル可視光スペクトルにおける高忠実度センサ保護のための最初の計算画像フレームワークであるNeuSeeを紹介する。
NeuSeeは、ピークレーザーの照射を抑えるために、100Kのユニークな画像に対して逆向きに訓練されている。
他のDOEよりも優れており、フルスペクトルイメージングとレーザー抑制を初めて達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine vision systems are susceptible to laser flare, where unwanted intense laser illumination blinds and distorts its perception of the environment through oversaturation or permanent damage to sensor pixels. We introduce NeuSee, the first computational imaging framework for high-fidelity sensor protection across the full visible spectrum. It jointly learns a neural representation of a diffractive optical element (DOE) and a frequency-space Mamba-GAN network for image restoration. NeuSee system is adversarially trained end-to-end on 100K unique images to suppress the peak laser irradiance as high as $10^6$ times the sensor saturation threshold $I_{\textrm{sat}}$, the point at which camera sensors may experience damage without the DOE. Our system leverages heterogeneous data and model parallelism for distributed computing, integrating hyperspectral information and multiple neural networks for realistic simulation and image restoration. NeuSee takes into account open-world scenes with dynamically varying laser wavelengths, intensities, and positions, as well as lens flare effects, unknown ambient lighting conditions, and sensor noises. It outperforms other learned DOEs, achieving full-spectrum imaging and laser suppression for the first time, with a 10.1\% improvement in restored image quality.
- Abstract(参考訳): マシンビジョンシステムはレーザーフレアの影響を受けやすく、望ましくない強いレーザー照明は、過飽和やセンサーピクセルの永続的な損傷によって、環境に対する認識を歪めてしまう。
フル可視光スペクトルにおける高忠実度センサ保護のための最初の計算画像フレームワークであるNeuSeeを紹介する。
画像復元のための拡散光学素子(DOE)と周波数空間のMamba-GANネットワークのニューラル表現を共同で学習する。
ニューセーシステムは100Kのユニークな画像に対して逆向きに訓練され、センサー飽和閾値$I_{\textrm{sat}}$の最大10^6$倍のピークレーザー照射を抑える。
本システムは分散コンピューティングにおいて異種データとモデル並列性を活用し,ハイパースペクトル情報と複数のニューラルネットワークを統合し,現実的なシミュレーションと画像復元を行う。
NeuSeeは、動的に変化するレーザー波長、強度、位置、レンズフレア効果、未知の環境光条件、センサーノイズなど、オープンワールドのシーンを考慮に入れている。
他のDOEよりも優れ、フルスペクトルイメージングとレーザー抑制を初めて達成し、回復した画像品質は10.1\%向上した。
関連論文リスト
- Limited-View Photoacoustic Imaging Reconstruction Via High-quality Self-supervised Neural Representation [4.274771298029378]
HIgh-quality Self-supervised Neural representation (HIS) と呼ばれる自己教師ネットワークを導入する。
HISは、限られた視点で取得したセンサデータから高品質な光音響画像を再構成するために、光音響イメージングの逆問題に取り組む。
その結果,提案したHISモデルは,光音響画像再構成によく用いられる3つの手法と比較して,画質が優れていることがわかった。
論文 参考訳(メタデータ) (2024-07-04T06:07:54Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Learning to See Through Dazzle [0.0]
レーザーダッズ(レーザーダッズ)は、過飽和やセンサーピクセルの永続的な損傷によって、強烈なレーザー光によって環境に対する認識を損なうことができる。
ここでは、ウェーブフロント符号化位相マスクを用いて、レーザ光のエネルギーを拡散させ、複雑な画像劣化からイメージを復元するためのサンドイッチ生成対向ネットワーク(SGAN)を導入する。
論文 参考訳(メタデータ) (2024-02-24T22:22:02Z) - Classification robustness to common optical aberrations [64.08840063305313]
本稿では,現実的かつ実用的な光ぼけ効果に対するロバスト性を調べるためのベンチマークである OpticsBench を提案する。
ImageNetの実験では、様々な訓練済みのDNNに対して、ディスク形状のカーネルと比較して、パフォーマンスが強いことが示されている。
我々は,光カーネルをデータ拡張として使用することにより,拡張可能なImageNet-100について述べる。
論文 参考訳(メタデータ) (2023-08-29T08:36:00Z) - 1000x Faster Camera and Machine Vision with Ordinary Devices [76.46540270145698]
我々は、光子の蓄積がしきい値に達したかどうかを各ビットが示すビットシーケンスアレイであるvidarを提示する。
我々は従来のカメラより1000倍高速なヴィダーカメラを開発した。
我々はまた、マシンの速度と生物学的視覚のメカニズムを組み合わせたスパイクニューラルネットワークベースのマシンビジョンシステムを開発した。
論文 参考訳(メタデータ) (2022-01-23T16:10:11Z) - Learning Neural Transmittance for Efficient Rendering of Reflectance
Fields [43.24427791156121]
本稿では,ニューラルリフレクタンスフィールドのレンダリングを高速化する事前計算型ニューラルトランスミッション関数に基づく新しい手法を提案する。
実シーンと合成シーンの結果は、最小の精度で環境マップ下でのレンダリングにおいて、ほぼ2桁のスピードアップを示す。
論文 参考訳(メタデータ) (2021-10-25T21:12:25Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Thermal Image Processing via Physics-Inspired Deep Networks [21.094006629684376]
DeepIRは、物理的に正確なセンサーモデリングとディープネットワークベースのイメージ表現を組み合わせる。
DeepIRは、トレーニングデータや、既知のブラックボディターゲットによる定期的な地平線校正を必要としない。
シミュレーションおよび実データ実験により、DeepIRは3つの画像で高品質な非均一性補正を行うことができることを示した。
論文 参考訳(メタデータ) (2021-08-18T04:57:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。