論文の概要: Zero-Reference Image Restoration for Under-Display Camera of UAV
- arxiv url: http://arxiv.org/abs/2202.06283v1
- Date: Sun, 13 Feb 2022 11:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 07:56:11.384938
- Title: Zero-Reference Image Restoration for Under-Display Camera of UAV
- Title(参考訳): uavのアンダーディスプレイカメラにおけるゼロ参照画像復元
- Authors: Zhuoran Zheng, Xiuyi Jia and Yunliang Zhuang
- Abstract要約: 画像のテクスチャと色を向上することで視覚体験を向上させる新しい手法を提案する。
本手法は,入力画像上の低ランクアフィングリッドを推定するために,軽量ネットワークを訓練する。
我々のモデルは任意の解像度の画像の高品質な復元をリアルタイムで行うことができる。
- 参考スコア(独自算出の注目度): 10.498049147922258
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exposed cameras of UAV can shake, shift, or even malfunction under the
influence of harsh weather, while the add-on devices (Dupont lines) are very
vulnerable to damage.
We can place a low-cost T-OLED overlay around the camera to protect it, but
this would also introduce image degradation issues.
In particular, the temperature variations in the atmosphere can create mist
that adsorbs to the T-OLED, which can cause secondary disasters (i.e., more
severe image degradation) during the UAV's filming process.
To solve the image degradation problem caused by overlaying T-OLEDs, in this
paper we propose a new method to enhance the visual experience by enhancing the
texture and color of images.
Specifically, our method trains a lightweight network to estimate a low-rank
affine grid on the input image, and then utilizes the grid to enhance the input
image at block granularity.
The advantages of our method are that no reference image is required and the
loss function is developed from visual experience.
In addition, our model can perform high-quality recovery of images of
arbitrary resolution in real time.
In the end, the limitations of our model and the collected datasets
(including the daytime and nighttime scenes) are discussed.
- Abstract(参考訳): UAVの露出したカメラは厳しい天候の影響で揺れたり、シフトしたり、故障したりすることがあるが、アドオン装置(Dupontのライン)は損傷に対して非常に脆弱である。
カメラに低コストのT-OLEDオーバーレイを配置して保護することもできますが、画像劣化の問題も生じます。
特に、大気中の温度変化は、T-OLEDに吸着する霧を生じさせ、UAVの撮影過程において二次的な災害(すなわち、より深刻な画像劣化)を引き起こす可能性がある。
本稿では, t-oledのオーバーレイによる画像劣化問題を解決するため, 画像のテクスチャと色を向上し, 視覚体験を向上させる新しい手法を提案する。
具体的には,入力画像上の低ランクアフィングリッドを推定するために軽量ネットワークを訓練し,そのグリッドを用いてブロック粒度での入力画像の強調を行う。
本手法の利点は,参照画像を必要としないこと,視覚経験から損失関数を開発することである。
さらに,任意の解像度の画像の高精細化をリアルタイムに行うことができる。
最後に、モデルと収集したデータセット(昼と夜のシーンを含む)の制限について論じます。
関連論文リスト
- NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - See Blue Sky: Deep Image Dehaze Using Paired and Unpaired Training
Images [73.23687409870656]
本稿では,新しいエンドツーエンド画像デヘイズモデルを構築するために,サイクル生成対向ネットワークを提案する。
我々は、実世界の未ペア画像データセットとペア画像データセットのセットを含む、私たちのモデルをトレーニングするために、屋外画像データセットを採用しています。
本モデルでは, サイクル構造に基づいて, 対向損失, サイクル整合損失, フォトリアリズム損失, ペアL1損失を含む4種類の損失関数を付加した。
論文 参考訳(メタデータ) (2022-10-14T07:45:33Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - ISP-Agnostic Image Reconstruction for Under-Display Cameras [30.49487402693437]
近年,画面面積を最大化しながらモバイルデバイスの形状係数を下げる手法として,アンダーディスプレイカメラが提案されている。
スクリーンの後ろにカメラを置くと、コントラストの喪失、ぼかし、ノイズ、色の変化、散乱アーティファクト、光感度の低下など、画像の歪みが顕著になる。
我々は、ISPに依存しない画像復元パイプラインを提案する。すなわち、どのレガシーISPとも組み合わせて、同じISPを使用して通常のカメラの外観にマッチする最終的な画像を生成することができる。
論文 参考訳(メタデータ) (2021-11-02T11:30:13Z) - TSN-CA: A Two-Stage Network with Channel Attention for Low-Light Image
Enhancement [11.738203047278848]
本稿では,低照度画像の明るさを高めるために,チャネル注意型2段階ネットワーク(TSN-CA)を提案する。
本手法が明度向上に優れた効果を発揮できることを示すため,広範にわたる実験を行った。
論文 参考訳(メタデータ) (2021-10-06T03:20:18Z) - T\"oRF: Time-of-Flight Radiance Fields for Dynamic Scene View Synthesis [32.878225196378374]
連続波ToFカメラのための画像形成モデルに基づくニューラル表現を提案する。
提案手法は, 動的シーン再構成のロバスト性を改善し, 誤ったキャリブレーションや大きな動きに改善することを示す。
論文 参考訳(メタデータ) (2021-09-30T17:12:59Z) - Removing Diffraction Image Artifacts in Under-Display Camera via Dynamic
Skip Connection Network [80.67717076541956]
アンダーディスプレイカメラ(UDC)システムは、スマートフォン上で真のベゼルレスおよびノッチフリーの視聴体験を提供します。
典型的なUDCシステムでは、ピクセルアレイはカメラ上の入射光を減衰および回折し、画像品質の大幅な低下をもたらす。
本研究では,前述の劣化問題の解析と対処を目的とする。
論文 参考訳(メタデータ) (2021-04-19T18:41:45Z) - Deep Atrous Guided Filter for Image Restoration in Under Display Cameras [18.6418313982586]
ディスプレイカメラの下では、カメラを半透明のOLEDスクリーンの後ろに配置することで、ベゼルのないディスプレイを実現することができる。
このようなイメージングシステムは、光の減衰と回折効果による画像劣化に悩まされる。
UDCシステムにおける画像復元のための2段階のエンド・ツー・エンドアプローチであるDeep Atrous Guided Filter(DAGF)を提案する。
論文 参考訳(メタデータ) (2020-08-14T07:54:52Z) - Low-light Image Restoration with Short- and Long-exposure Raw Pairs [14.643663950015334]
短時間・長時間露光画像の相補的情報を用いた新しい低照度画像復元手法を提案する。
まず,現実的な短時間・長時間露光生画像の合成のための新しいデータ生成手法を提案する。
そこで我々は,低照度画像融合の問題に対処するため,LSFNet(Long-Short-Exposure fusion Network)を新たに設計した。
論文 参考訳(メタデータ) (2020-07-01T03:22:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。