論文の概要: Learning to See Through Dazzle
- arxiv url: http://arxiv.org/abs/2402.15919v2
- Date: Mon, 4 Mar 2024 22:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 23:52:22.575850
- Title: Learning to See Through Dazzle
- Title(参考訳): Dazzleを通して見ることを学ぶ
- Authors: Xiaopeng Peng, Erin F. Fleet, Abbie T. Watnik, Grover A. Swartzlander
- Abstract要約: レーザーダッズ(レーザーダッズ)は、過飽和やセンサーピクセルの永続的な損傷によって、強烈なレーザー光によって環境に対する認識を損なうことができる。
ここでは、ウェーブフロント符号化位相マスクを用いて、レーザ光のエネルギーを拡散させ、複雑な画像劣化からイメージを復元するためのサンドイッチ生成対向ネットワーク(SGAN)を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine vision is susceptible to laser dazzle, where intense laser light can
blind and distort its perception of the environment through oversaturation or
permanent damage to sensor pixels. Here we employ a wavefront-coded phase mask
to diffuse the energy of laser light and introduce a sandwich generative
adversarial network (SGAN) to restore images from complex image degradations,
such as varying laser-induced image saturation, mask-induced image blurring,
unknown lighting conditions, and various noise corruptions. The SGAN
architecture combines discriminative and generative methods by wrapping two
GANs around a learnable image deconvolution module. In addition, we make use of
Fourier feature representations to reduce the spectral bias of neural networks
and improve its learning of high-frequency image details. End-to-end training
includes the realistic physics-based synthesis of a large set of training data
from publicly available images. We trained the SGAN to suppress the peak laser
irradiance as high as $10^6$ times the sensor saturation threshold - the point
at which camera sensors may experience damage without the mask. The trained
model was evaluated on both a synthetic data set and data collected from the
laboratory. The proposed image restoration model quantitatively and
qualitatively outperforms state-of-the-art methods for a wide range of scene
contents, laser powers, incident laser angles, ambient illumination strengths,
and noise characteristics.
- Abstract(参考訳): マシンビジョンはレーザーダズル(レーザーダズル)に影響を受けやすく、強烈なレーザー光は過飽和やセンサーピクセルへの恒久的な損傷によって環境の知覚を盲目かつ歪めることができる。
ここでは,レーザー光のエネルギーを拡散する波面符号化位相マスクを用い,サンドウィッチ生成逆向ネットワーク(sgan)を導入し,レーザー誘起画像の飽和度,マスク誘起画像のぼかし,未知の照明条件,様々なノイズ劣化などの複雑な画像劣化から画像を復元する。
SGANアーキテクチャは、2つのGANを学習可能な画像デコンボリューションモジュールの周りにラップすることで、識別的および生成的手法を組み合わせる。
さらに、ニューラルネットワークのスペクトルバイアスを低減し、高周波画像の詳細の学習を改善するために、フーリエ特徴表現を利用する。
エンドツーエンドのトレーニングには、公開画像から大量のトレーニングデータのリアルな物理ベースの合成が含まれる。
我々は、SGANをトレーニングし、ピークレーザー照射をセンサー飽和閾値の最大10^6$倍に抑えるようにした。
実験室から収集した合成データセットとデータを用いて, 学習モデルの評価を行った。
提案した画像復元モデルは,様々なシーンコンテンツ,レーザーパワー,入射レーザアングル,周囲照明強度,ノイズ特性に対して,最先端の手法を定量的かつ定性的に上回る。
関連論文リスト
- CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Classification robustness to common optical aberrations [64.08840063305313]
本稿では,現実的かつ実用的な光ぼけ効果に対するロバスト性を調べるためのベンチマークである OpticsBench を提案する。
ImageNetの実験では、様々な訓練済みのDNNに対して、ディスク形状のカーネルと比較して、パフォーマンスが強いことが示されている。
我々は,光カーネルをデータ拡張として使用することにより,拡張可能なImageNet-100について述べる。
論文 参考訳(メタデータ) (2023-08-29T08:36:00Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Lightweight HDR Camera ISP for Robust Perception in Dynamic Illumination
Conditions via Fourier Adversarial Networks [35.532434169432776]
照明とノイズ除去の逐次的バランスをとる軽量な2段階画像強調アルゴリズムを提案する。
また、異なる照明条件下での一貫した画像強調のためのフーリエスペクトルベース対向フレームワーク(AFNet)を提案する。
また,定量的および定性的な評価に基づいて,画像強調技術が共通認識タスクの性能に与える影響について検討した。
論文 参考訳(メタデータ) (2022-04-04T18:48:51Z) - DA-DRN: Degradation-Aware Deep Retinex Network for Low-Light Image
Enhancement [14.75902042351609]
低照度画像強調のための劣化対応深部網膜ネットワーク(DA-DRN)を提案する。
Retinex Theoryに基づいて、我々のモデルにおける分解ネットは、低照度画像を反射率と照明マップに分解することができる。
提案手法は, 良好なルバスト性および一般化によって有望な効果を発揮することを示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-10-05T03:53:52Z) - Thermal Image Processing via Physics-Inspired Deep Networks [21.094006629684376]
DeepIRは、物理的に正確なセンサーモデリングとディープネットワークベースのイメージ表現を組み合わせる。
DeepIRは、トレーニングデータや、既知のブラックボディターゲットによる定期的な地平線校正を必要としない。
シミュレーションおよび実データ実験により、DeepIRは3つの画像で高品質な非均一性補正を行うことができることを示した。
論文 参考訳(メタデータ) (2021-08-18T04:57:48Z) - Light Lies: Optical Adversarial Attack [24.831391763610046]
本稿では, 画像センサに到達した光界情報を物理的に変化させて, 分類モデルが誤分類を生じさせる光学対向攻撃を提案する。
シミュレーションと実際のハードウェア光システムの両方に基づく実験を行い,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-06-18T04:20:49Z) - Learning optical flow from still images [53.295332513139925]
我々は,容易に利用可能な単一の実画像から,高精度な光学的フローアノテーションを迅速かつ多量に生成するフレームワークを提案する。
既知の動きベクトルと回転角を持つ再構成された環境でカメラを仮想的に移動させる。
我々のデータでトレーニングすると、最先端の光フローネットワークは、実データを見るのに優れた一般化を実現する。
論文 参考訳(メタデータ) (2021-04-08T17:59:58Z) - FD-GAN: Generative Adversarial Networks with Fusion-discriminator for
Single Image Dehazing [48.65974971543703]
画像デハージングのためのFusion-Discriminator (FD-GAN) を用いた完全エンドツーエンドのジェネレータネットワークを提案する。
我々のモデルは、より自然でリアルなデハズド画像を生成することができ、色歪みは少なく、アーティファクトも少ない。
実験により, 提案手法は, 公開合成データセットと実世界の画像の両方において, 最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2020-01-20T04:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。