論文の概要: Bokehlicious: Photorealistic Bokeh Rendering with Controllable Apertures
- arxiv url: http://arxiv.org/abs/2503.16067v2
- Date: Tue, 25 Mar 2025 13:43:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:55:49.185920
- Title: Bokehlicious: Photorealistic Bokeh Rendering with Controllable Apertures
- Title(参考訳): Bokehlicious:コントロール可能な開口部を備えた光リアルボケレンダリング
- Authors: Tim Seizinger, Florin-Alexandru Vasluianu, Marcos V. Conde, Zongwei Wu, Radu Timofte,
- Abstract要約: ボケのレンダリング手法は、プロの写真に見られる視覚的に魅力的で、ソフトにぼやけた背景を作り出す上で重要な役割を果たしている。
本稿では,Aperture-Aware Attention 機構を用いて,ボケの強度を直感的に制御する高効率ネットワークであるBokehliciousを提案する。
プロの写真家が撮影した23,000の高解像度(24-MP)の画像を含む新しいデータセットであるRealBokehを提示する。
- 参考スコア(独自算出の注目度): 51.16022611377722
- License:
- Abstract: Bokeh rendering methods play a key role in creating the visually appealing, softly blurred backgrounds seen in professional photography. While recent learning-based approaches show promising results, generating realistic Bokeh with variable strength remains challenging. Existing methods require additional inputs and suffer from unrealistic Bokeh reproduction due to reliance on synthetic data. In this work, we propose Bokehlicious, a highly efficient network that provides intuitive control over Bokeh strength through an Aperture-Aware Attention mechanism, mimicking the physical lens aperture. To further address the lack of high-quality real-world data, we present RealBokeh, a novel dataset featuring 23,000 high-resolution (24-MP) images captured by professional photographers, covering diverse scenes with varied aperture and focal length settings. Evaluations on both our new RealBokeh and established Bokeh rendering benchmarks show that Bokehlicious consistently outperforms SOTA methods while significantly reducing computational cost and exhibiting strong zero-shot generalization. Our method and dataset further extend to defocus deblurring, achieving competitive results on the RealDOF benchmark. Our code and data can be found at https://github.com/TimSeizinger/Bokehlicious
- Abstract(参考訳): ボケのレンダリング手法は、プロの写真に見られる視覚的に魅力的で、ソフトにぼやけた背景を作り出す上で重要な役割を担っている。
最近の学習ベースのアプローチは有望な結果を示しているが、可変強度で現実的なボケを生成することは依然として困難である。
既存の方法は追加の入力を必要とし、合成データに依存するため非現実的なボケの再現に苦しむ。
本研究では,Aperture-Aware Attention 機構を用いてボケの強度を直感的に制御し,物理レンズの開口を模倣する,高効率なボケヘリクスを提案する。
高品質な実世界のデータがないことにさらに対処するため、プロの写真家が捉えた23,000の高解像度(24-MP)の画像を含む新しいデータセットであるRealBokehを紹介した。
我々の新しいRealBokehと確立されたBokehベンチマークによる評価は、BokehliciousがSOTA法を一貫して上回り、計算コストを大幅に削減し、強力なゼロショット一般化を示すことを示している。
提案手法とデータセットはデフォーカス・デブロアリングにさらに拡張され,RealDOFベンチマークの競合結果が得られた。
私たちのコードとデータはhttps://github.com/TimSeizinger/Bokehliciousで確認できます。
関連論文リスト
- Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - BokehOrNot: Transforming Bokeh Effect with Image Transformer and Lens
Metadata Embedding [2.3784282912975345]
Bokeh効果(ボケエフェクト、英: Bokeh effect)は、広角レンズを備えたハイエンドカメラが生み出す、快適な視覚体験を提供する光学現象である。
本稿では,このモデルにレンズメタデータを埋め込み,アルファマスクを用いた損失計算手法を提案する。
以上の手法に基づいて,ブラープ・トゥ・シャープとシャープ・トゥ・ブルーのボケ効果を両立できるボケオルノットモデルを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:49:56Z) - Realistic Bokeh Effect Rendering on Mobile GPUs, Mobile AI & AIM 2022
challenge: Report [75.79829464552311]
この課題は、最新のスマートフォンモデルで実行できる効率的なエンドツーエンドのAIベースのレンダリングアプローチを開発することだった。
得られたモデルはKirin 9000のMali GPUで評価され、多くのディープラーニングオプティマスに対して優れた加速結果が得られた。
論文 参考訳(メタデータ) (2022-11-07T22:42:02Z) - Bokeh-Loss GAN: Multi-Stage Adversarial Training for Realistic
Edge-Aware Bokeh [3.8811606213997587]
我々は単分子ボケ合成の問題に取り組み、単一のオールインフォーカス画像から被写界画像の浅い深さを描画しようと試みる。
DSLRカメラとは異なり、この効果は移動体開口の物理的制約のため、移動体カメラでは直接キャプチャできない。
本稿では,単一の画像入力から現実的なモノクロボケをレンダリングできるネットワークベースのアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-25T20:57:07Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - AIM 2020 Challenge on Rendering Realistic Bokeh [95.87775182820518]
本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
論文 参考訳(メタデータ) (2020-11-10T09:15:38Z) - BGGAN: Bokeh-Glass Generative Adversarial Network for Rendering
Realistic Bokeh [19.752904494597328]
本稿では,複雑なハードウェアに依存しないボケ画像を生成するGlass-Netという新しいジェネレータを提案する。
実験の結果,この方法は高品質なボケ効果を示し,全スマートフォンチップセットで1.9秒で1,1024倍の1536$の画像を処理可能であることがわかった。
論文 参考訳(メタデータ) (2020-11-04T11:56:34Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z) - Depth-aware Blending of Smoothed Images for Bokeh Effect Generation [10.790210744021072]
本稿では,画像から高品質なボケ効果を生成するために,エンドツーエンドのディープラーニングフレームワークを提案する。
ネットワークは軽量で、HD画像を0.03秒で処理できる。
このアプローチは、AIM 2019 Bokeh effect Challenge-Perceptual Trackで2位にランクインした。
論文 参考訳(メタデータ) (2020-05-28T18:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。