論文の概要: AoSRNet: All-in-One Scene Recovery Networks via Multi-knowledge
Integration
- arxiv url: http://arxiv.org/abs/2402.03738v1
- Date: Tue, 6 Feb 2024 06:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 16:35:09.230713
- Title: AoSRNet: All-in-One Scene Recovery Networks via Multi-knowledge
Integration
- Title(参考訳): AoSRNet:マルチ知識統合によるオールインワンのシーンリカバリネットワーク
- Authors: Yuxu Lu, Dong Yang, Yuan Gao, Ryan Wen Liu, Jun Liu, Yu Guo
- Abstract要約: マルチ知識統合によるオールインワンシーン復元ネットワーク(AoSRNet)を提案する。
ガンマ補正(GC)と最適化線形ストレッチ(OLS)を組み合わせてディテール拡張モジュール(DEM)とカラー復元モジュール(CRM)を作成する。
総合的な実験結果から,AoSRNetの有効性と安定性が他の最先端手法と比較された。
- 参考スコア(独自算出の注目度): 17.070755601209136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scattering and attenuation of light in no-homogeneous imaging media or
inconsistent light intensity will cause insufficient contrast and color
distortion in the collected images, which limits the developments such as
vision-driven smart urban, autonomous vehicles, and intelligent robots. In this
paper, we propose an all-in-one scene recovery network via multi-knowledge
integration (termed AoSRNet) to improve the visibility of imaging devices in
typical low-visibility imaging scenes (e.g., haze, sand dust, and low light).
It combines gamma correction (GC) and optimized linear stretching (OLS) to
create the detail enhancement module (DEM) and color restoration module (CRM).
Additionally, we suggest a multi-receptive field extraction module (MEM) to
attenuate the loss of image texture details caused by GC nonlinear and OLS
linear transformations. Finally, we refine the coarse features generated by
DEM, CRM, and MEM through Encoder-Decoder to generate the final restored image.
Comprehensive experimental results demonstrate the effectiveness and stability
of AoSRNet compared to other state-of-the-art methods. The source code is
available at \url{https://github.com/LouisYuxuLu/AoSRNet}.
- Abstract(参考訳): 非均質な撮像媒体における光の散乱と減衰、あるいは不整合光強度は、収集された画像のコントラストと色歪の不足を引き起こし、視覚駆動型スマートアーバン、自動運転車、インテリジェントロボットなどの開発を制限する。
本稿では,マルチ知識統合(AoSRNet)を用いたオールインワンシーン回復ネットワークを提案する。
ガンマ補正(GC)と最適化線形ストレッチ(OLS)を組み合わせてディテール拡張モジュール(DEM)とカラー復元モジュール(CRM)を作成する。
さらに,GC非線形およびOLS線形変換による画像テクスチャ詳細の損失を軽減するために,マルチ受信フィールド抽出モジュール(MEM)を提案する。
最後に,dem,crm,memが生成する粗い特徴をエンコーダデコーダを通じて洗練し,最終的な復元画像を生成する。
総合実験の結果,aosrnetは他の最先端手法と比較して有効性と安定性を示した。
ソースコードは \url{https://github.com/LouisYuxuLu/AoSRNet} で入手できる。
関連論文リスト
- CRNet: A Detail-Preserving Network for Unified Image Restoration and Enhancement Task [44.14681936953848]
複合リファインメントネットワーク(CRNet)は、統合された画像復元と拡張を行うことができる。
CRNetは、プール層を通じて、高頻度と低周波の情報を明確に分離し、強化する。
私たちのモデルは、ブラケット画像復元・拡張チャレンジの最初のトラックで3位を確保しました。
論文 参考訳(メタデータ) (2024-04-22T12:33:18Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Ghost-free High Dynamic Range Imaging via Hybrid CNN-Transformer and
Structure Tensor [12.167049432063132]
本稿では,ゴーストフリーなHDR画像を生成するために,畳み込みエンコーダとトランスフォーマーデコーダを組み合わせたハイブリッドモデルを提案する。
エンコーダでは、マルチスケール機能を最適化するために、コンテキスト集約ネットワークと非ローカルアテンションブロックが採用されている。
Swin Transformer に基づくデコーダを用いて,提案モデルの再構成性能を向上させる。
論文 参考訳(メタデータ) (2022-12-01T15:43:32Z) - Modular Degradation Simulation and Restoration for Under-Display Camera [21.048590332029995]
ディスプレイ下カメラ(UDC)はフルスクリーンスマートフォンにエレガントなソリューションを提供する。
UDCが撮影した画像は、センサーがディスプレイの下に置かれているため、深刻な劣化に悩まされている。
UDC画像のシミュレーションにGAN(Generative Adversarial Network)フレームワークを用いたMPGNetと呼ばれるモジュラーネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-23T07:36:07Z) - Removing Diffraction Image Artifacts in Under-Display Camera via Dynamic
Skip Connection Network [80.67717076541956]
アンダーディスプレイカメラ(UDC)システムは、スマートフォン上で真のベゼルレスおよびノッチフリーの視聴体験を提供します。
典型的なUDCシステムでは、ピクセルアレイはカメラ上の入射光を減衰および回折し、画像品質の大幅な低下をもたらす。
本研究では,前述の劣化問題の解析と対処を目的とする。
論文 参考訳(メタデータ) (2021-04-19T18:41:45Z) - Contrastive Learning for Compact Single Image Dehazing [41.83007400559068]
コントラスト学習に基づいて構築された新しいコントラスト正規化(CR)を提案し、ヘイズ画像とクリア画像の情報の両方をネガティブかつポジティブなサンプルとして活用する。
CRは、復元された画像が透明な画像に近づき、表現空間のぼやけた画像から遠くへ押し出されることを保証する。
性能とメモリストレージのトレードオフを考慮すると、オートエンコーダのようなフレームワークに基づくコンパクトなデハージングネットワークを開発する。
論文 参考訳(メタデータ) (2021-04-19T14:56:21Z) - Adaptive Gradient Balancing for UndersampledMRI Reconstruction and
Image-to-Image Translation [60.663499381212425]
本研究では,新しい適応勾配バランス手法を併用したwasserstein生成逆ネットワークを用いて,画質の向上を図る。
MRIでは、他の技術よりも鮮明な画像を生成する高品質の再構築を維持しながら、アーティファクトを最小限に抑えます。
論文 参考訳(メタデータ) (2021-04-05T13:05:22Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。