論文の概要: Deep Hybrid Camera Deblurring for Smartphone Cameras
- arxiv url: http://arxiv.org/abs/2312.13317v2
- Date: Wed, 24 Jul 2024 22:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 19:46:37.222923
- Title: Deep Hybrid Camera Deblurring for Smartphone Cameras
- Title(参考訳): スマートフォン用ディープハイブリッドカメラ
- Authors: Jaesung Rim, Junyong Lee, Heemin Yang, Sunghyun Cho,
- Abstract要約: スマートフォンのための学習型デブロアリングフレームワークを提案する。
我々は、長時間露光した広視野画像と短露光した超広視野画像をキャプチャし、そのバースト画像を用いて広視野像を損なう。
実験により, HCDeblurは最先端の劣化品質を達成できることが示された。
- 参考スコア(独自算出の注目度): 18.053081461607544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile cameras, despite their significant advancements, still have difficulty in low-light imaging due to compact sensors and lenses, leading to longer exposures and motion blur. Traditional blind deconvolution methods and learning-based deblurring methods can be potential solutions to remove blur. However, achieving practical performance still remains a challenge. To address this, we propose a learning-based deblurring framework for smartphones, utilizing wide and ultra-wide cameras as a hybrid camera system. We simultaneously capture a long-exposure wide image and short-exposure burst ultra-wide images, and utilize the burst images to deblur the wide image. To fully exploit burst ultra-wide images, we present HCDeblur, a practical deblurring framework that includes novel deblurring networks, HC-DNet and HC-FNet. HC-DNet utilizes motion information extracted from burst images to deblur a wide image, and HC-FNet leverages burst images as reference images to further enhance a deblurred output. For training and evaluating the proposed method, we introduce the HCBlur dataset, which consists of synthetic and real-world datasets. Our experiments demonstrate that HCDeblur achieves state-of-the-art deblurring quality. Code and datasets are available at https://cg.postech.ac.kr/research/HCDeblur.
- Abstract(参考訳): モバイルカメラは、大きな進歩にもかかわらず、コンパクトなセンサーやレンズによって低照度の撮像が難しいため、露出が長くなり、動きがぼやけてしまう。
従来のブラインドデコンボリューション法や学習ベースのデブロワーリング法は、ぼやけを取り除く潜在的な解決策となり得る。
しかし、実際的なパフォーマンスを達成することは依然として課題である。
そこで我々は,広角・超広角カメラをハイブリッドカメラシステムとして活用した,スマートフォン用学習型デブロアリングフレームワークを提案する。
広視野画像と短視野バースト画像とを同時に撮影し,そのバースト画像を用いて広視野画像を損なう。
バースト超広視野画像をフル活用するために,新しいデブロアリングネットワーク,HC-DNet,HC-FNetを含む実用的なデブロアリングフレームワークであるHCDeblurを提案する。
HC-DNetは、バースト画像から抽出した動き情報を利用して広視野画像を復号し、HC-FNetはバースト画像を基準画像として利用して、デブリ出力をさらに強化する。
提案手法を訓練し,評価するために,合成および実世界のデータセットからなるHCBlurデータセットを提案する。
実験により, HCDeblurは最先端の劣化品質を達成できることが示された。
コードとデータセットはhttps://cg.postech.ac.kr/research/HCDeblur.orgで公開されている。
関連論文リスト
- Lightweight High-Speed Photography Built on Coded Exposure and Implicit Neural Representation of Videos [34.152901518593396]
高速シーンを高解像度で記録できるコンパクトカメラの需要は着実に増加している。
しかし、そのような能力を達成するには、しばしば高帯域幅の要求が伴うため、低容量のプラットフォームには不適当で重いシステムになる。
本稿では,ビデオの暗黙的表現と古典的符号化露光画像技術を組み合わせることで,これらの課題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T03:41:13Z) - Real-Time Under-Display Cameras Image Restoration and HDR on Mobile
Devices [81.61356052916855]
アンダーディスプレイカメラ(UDC)によって撮影された画像は、その前のスクリーンによって劣化する。
画像復元のためのディープラーニング手法は、キャプチャ画像の劣化を著しく低減することができる。
我々は,視覚的UDC画像復元とHDRのための軽量なモデルを提案し,スマートフォン上での様々な手法の性能と実行状況を比較したベンチマークを提供する。
論文 参考訳(メタデータ) (2022-11-25T11:46:57Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - RBSRICNN: Raw Burst Super-Resolution through Iterative Convolutional
Neural Network [23.451063587138393]
RBSRICNN(Row Burst Super-Resolution Iterative Convolutional Neural Network)を提案する。
提案したネットワークは、中間SR推定を反復的に洗練することにより最終的な出力を生成する。
定量的および定性的な実験において提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:01:28Z) - Removing Diffraction Image Artifacts in Under-Display Camera via Dynamic
Skip Connection Network [80.67717076541956]
アンダーディスプレイカメラ(UDC)システムは、スマートフォン上で真のベゼルレスおよびノッチフリーの視聴体験を提供します。
典型的なUDCシステムでは、ピクセルアレイはカメラ上の入射光を減衰および回折し、画像品質の大幅な低下をもたらす。
本研究では,前述の劣化問題の解析と対処を目的とする。
論文 参考訳(メタデータ) (2021-04-19T18:41:45Z) - Beyond Joint Demosaicking and Denoising: An Image Processing Pipeline
for a Pixel-bin Image Sensor [0.883717274344425]
Pixel binningは、スマートフォンカメラのハードウェア制限に対処する最も顕著なソリューションの1つだと考えられている。
本稿では,新しい学習手法を導入することで,このような画像センサ上でのJDD(Joint Desaicing and Denoising)の課題に対処する。
提案手法は,視覚可能な画像を生成するための2つの新しい知覚損失を含む多項目的関数によって導かれる。
論文 参考訳(メタデータ) (2021-04-19T15:41:28Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z) - AWNet: Attentive Wavelet Network for Image ISP [14.58067200317891]
本稿では,この学習可能な画像ISP問題に対処するために,AWNetと呼ばれるアテンション機構とウェーブレット変換を利用する新しいネットワークを提案する。
提案手法により,RAW情報から好意的な画像の詳細を復元し,より広い受容領域を実現することができる。
実験結果から,定性的,定量的両測定における設計の進歩が示唆された。
論文 参考訳(メタデータ) (2020-08-20T23:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。