論文の概要: Point-and-Shoot All-in-Focus Photo Synthesis from Smartphone Camera Pair
- arxiv url: http://arxiv.org/abs/2304.04917v1
- Date: Tue, 11 Apr 2023 01:09:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 16:37:20.889571
- Title: Point-and-Shoot All-in-Focus Photo Synthesis from Smartphone Camera Pair
- Title(参考訳): スマートフォンカメラペアからのポイント・アンド・ショット全焦点写真合成
- Authors: Xianrui Luo, Juewen Peng, Weiyue Zhao, Ke Xian, Hao Lu, and Zhiguo Cao
- Abstract要約: 我々は、メイン(ワイド)およびウルトラワイドカメラからのAIF合成の新しいタスクを導入する。
目標は、超ワイドカメラの助けを借りて、メインカメラの写真の焦点のずれた領域の鮮明な詳細を回収することだ。
初めて、メインカメラとウルトラワイドカメラを用いて、ポイント・アンド・ショットのAIF写真合成に成功した。
- 参考スコア(独自算出の注目度): 25.863069406779125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All-in-Focus (AIF) photography is expected to be a commercial selling point
for modern smartphones. Standard AIF synthesis requires manual, time-consuming
operations such as focal stack compositing, which is unfriendly to ordinary
people. To achieve point-and-shoot AIF photography with a smartphone, we expect
that an AIF photo can be generated from one shot of the scene, instead of from
multiple photos captured by the same camera. Benefiting from the multi-camera
module in modern smartphones, we introduce a new task of AIF synthesis from
main (wide) and ultra-wide cameras. The goal is to recover sharp details from
defocused regions in the main-camera photo with the help of the
ultra-wide-camera one. The camera setting poses new challenges such as
parallax-induced occlusions and inconsistent color between cameras. To overcome
the challenges, we introduce a predict-and-refine network to mitigate
occlusions and propose dynamic frequency-domain alignment for color correction.
To enable effective training and evaluation, we also build an AIF dataset with
2686 unique scenes. Each scene includes two photos captured by the main camera,
one photo captured by the ultrawide camera, and a synthesized AIF photo.
Results show that our solution, termed EasyAIF, can produce high-quality AIF
photos and outperforms strong baselines quantitatively and qualitatively. For
the first time, we demonstrate point-and-shoot AIF photo synthesis successfully
from main and ultra-wide cameras.
- Abstract(参考訳): All-in-Focus(AIF)写真は、現代のスマートフォンの商業的セールスポイントになるだろう。
標準的なaif合成には、focal stack compositingのような手動で時間を要する操作が必要である。
スマートフォンで一眼レフ撮影を実現するため,同じカメラで撮影した複数の写真ではなく,一眼カメラからAIF写真を生成することができると期待している。
現代のスマートフォンにおけるマルチカメラモジュールの利点として、メイン(ワイド)およびウルトラワイドカメラからのAIF合成の新しいタスクを導入する。
ゴールは、超ワイドカメラの助けを借りて、メインカメラの写真の焦点がずれた領域の鮮明な詳細を回収することだ。
カメラ設定は、視差による閉塞やカメラ間の一貫性のない色といった新しい課題を提起する。
そこで本研究では,オクルージョンを軽減し,色補正のための動的周波数領域アライメントを提案する。
効果的なトレーニングと評価を可能にするために,2686のユニークなシーンを持つaifデータセットも構築する。
各シーンにはメインカメラで撮影した2枚の写真、超ワイドカメラで撮影した1枚の写真、合成されたAIF写真が含まれる。
その結果,我々のソリューションはeasyaifと呼ばれ,高品質なaif写真を生成することができ,定量的かつ定性的に強力なベースラインを上回ることがわかった。
初めて、メインカメラとウルトラワイドカメラを用いて、ポイント・アンド・ショットのAIF写真合成に成功した。
関連論文リスト
- EvMAPPER: High Altitude Orthomapping with Event Cameras [58.86453514045072]
この研究は、イベントカメラを用いた最初のオルソモザイク的アプローチを導入している。
CMOSカメラにのみ依存する既存の手法とは対照的に,本手法は難易度の高い光条件においてもマップ生成を可能にする。
論文 参考訳(メタデータ) (2024-09-26T17:57:15Z) - UC-NeRF: Neural Radiance Field for Under-Calibrated Multi-view Cameras
in Autonomous Driving [32.03466915786333]
UC-NeRFは、アンダーキャリブレーションされたマルチビューカメラシステムにおいて、新しいビュー合成に適した新しい方法である。
異なる画像領域における色の不整合を補正する階層ベースの色補正を提案する。
第2に,色補正と3次元回復のために,より視点が多様だが一貫したビューを生成する仮想ワープを提案する。
論文 参考訳(メタデータ) (2023-11-28T16:47:59Z) - Dual-Camera Joint Deblurring-Denoising [24.129908866882346]
高品質な画像を得るための新しいデュアルカメラ手法を提案する。
本手法では,1台のカメラで撮影した短い露光画像の同期バーストと,もう1台のカメラで撮影した長時間露光画像を用いる。
本手法は,GoProデータセットから得られた合成デュアルカメラ画像に対して,次の最適手法に比べて5倍のトレーニングパラメータで最先端の結果を得られる。
論文 参考訳(メタデータ) (2023-09-16T00:58:40Z) - $\text{DC}^2$: Dual-Camera Defocus Control by Learning to Refocus [38.24734623691387]
合成カメラ開口,焦点距離,任意のデフォーカス効果のデフォーカス制御システムを提案する。
私たちの重要な洞察は、デフォーカスを学習するためのプロキシタスクとしてイメージリフォーカスを使用することで、実世界のスマートフォンカメラデータセットを活用することです。
我々は,傾きシフトやコンテンツベースのデフォーカス効果を含む,クリエイティヴ・キャプチャー後デフォーカス制御の実現を実証する。
論文 参考訳(メタデータ) (2023-04-06T17:59:58Z) - Perceptual Image Enhancement for Smartphone Real-Time Applications [60.45737626529091]
本稿では,知覚的画像強調のための軽量ネットワークLPIENetを提案する。
我々のモデルは、ノイズアーティファクト、回折アーティファクト、ぼかし、HDR過剰露光を扱うことができる。
我々のモデルは、中級商用スマートフォンで1秒未満で2K解像度画像を処理することができる。
論文 参考訳(メタデータ) (2022-10-24T19:16:33Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Face Deblurring using Dual Camera Fusion on Mobile Phones [23.494813096697815]
動きの速い被写体の運動のぼやけは、写真における長年の問題である。
携帯電話用デュアルカメラフュージョン技術に基づく新しい顔のブラッシングシステムを開発した。
当社のアルゴリズムはGoogle Pixel 6上で効率よく動作します。
論文 参考訳(メタデータ) (2022-07-23T22:50:46Z) - LenslessPiCam: A Hardware and Software Platform for Lensless
Computational Imaging with a Raspberry Pi [14.690546891460235]
LenslessPiCamは、研究者、ホビイスト、学生がレンズレス画像の実装と探索を可能にするフレームワークを提供する。
我々は、LenslessPiCamを教育資源として使用できるように詳細なガイドと演習を提供し、大学院レベルの信号処理コースの結果を示す。
論文 参考訳(メタデータ) (2022-06-03T07:39:21Z) - Dual Adversarial Adaptation for Cross-Device Real-World Image
Super-Resolution [114.26933742226115]
異なるデバイスからの画像に基づいて訓練された超高解像度(SR)モデルは、異なる画像パターンを示す可能性がある。
本稿では、DADA(Dual Adversarial Adaptation)という、実世界のSRのための教師なしドメイン適応機構を提案する。
3台のカメラで6台のリアル・トゥ・リアル・アダプティブ・セッティングで実験を行い、既存の最先端のアプローチと比較して優れた性能を実現した。
論文 参考訳(メタデータ) (2022-05-07T02:55:39Z) - Aliasing is your Ally: End-to-End Super-Resolution from Raw Image Bursts [70.80220990106467]
本発表では,空間と時間に若干異なる視点から撮影された複数の低解像度スナップショットから高分解能画像を再構成する問題に対処する。
この問題を解決するための主な課題は、(i)入力画像とサブピクセル精度の整合性、(ii)ネイティブカメラデータに対する最大限の忠実性のための生(ノイズ)画像の扱い、(iii)タスクに適した画像事前(正規化器)を設計・学習することである。
論文 参考訳(メタデータ) (2021-04-13T13:39:43Z) - DSEC: A Stereo Event Camera Dataset for Driving Scenarios [55.79329250951028]
本研究は,イベントカメラを用いた初の高分解能大規模ステレオデータセットを提案する。
データセットは、様々な照明条件で駆動により収集された53のシーケンスを含む。
イベントベースステレオアルゴリズムの開発と評価のための基礎的な真相の相違を提供する。
論文 参考訳(メタデータ) (2021-03-10T12:10:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。