論文の概要: BokehFlow: Depth-Free Controllable Bokeh Rendering via Flow Matching
- arxiv url: http://arxiv.org/abs/2511.15066v1
- Date: Wed, 19 Nov 2025 03:18:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.611278
- Title: BokehFlow: Depth-Free Controllable Bokeh Rendering via Flow Matching
- Title(参考訳): BokehFlow:フローマッチングによる奥行きのないコントロール可能なBokehレンダリング
- Authors: Yachuan Huang, Xianrui Luo, Qiwen Wang, Liao Shen, Jiaqi Li, Huiqiang Sun, Zihao Huang, Wei Jiang, Zhiguo Cao,
- Abstract要約: ボケレンダリングは、写真における浅い視野効果をシミュレートし、視覚美学を強化し、興味のある領域への視聴者の注意を誘導する。
本稿では,フローマッチングに基づくボケレンダリングのためのフレームワークであるボケフローを提案する。
BokehFlowは、オールインフォーカス画像から直接フォトリアリスティックなボケ効果を合成し、深度入力を不要にする。
- 参考スコア(独自算出の注目度): 33.101056425502584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bokeh rendering simulates the shallow depth-of-field effect in photography, enhancing visual aesthetics and guiding viewer attention to regions of interest. Although recent approaches perform well, rendering controllable bokeh without additional depth inputs remains a significant challenge. Existing classical and neural controllable methods rely on accurate depth maps, while generative approaches often struggle with limited controllability and efficiency. In this paper, we propose BokehFlow, a depth-free framework for controllable bokeh rendering based on flow matching. BokehFlow directly synthesizes photorealistic bokeh effects from all-in-focus images, eliminating the need for depth inputs. It employs a cross-attention mechanism to enable semantic control over both focus regions and blur intensity via text prompts. To support training and evaluation, we collect and synthesize four datasets. Extensive experiments demonstrate that BokehFlow achieves visually compelling bokeh effects and offers precise control, outperforming existing depth-dependent and generative methods in both rendering quality and efficiency.
- Abstract(参考訳): ボケレンダリングは、写真における浅い視野効果をシミュレートし、視覚美学を強化し、興味のある領域への視聴者の注意を誘導する。
最近の手法はうまく機能するが、追加の深度入力なしで制御可能なボケをレンダリングすることは依然として大きな課題である。
既存の古典的および神経制御可能な手法は正確な深度マップに依存しているが、生成的アプローチは制限された制御性と効率に苦しむことが多い。
本稿では,フローマッチングに基づくボケレンダリングのための奥行き自由なフレームワークであるボケフローを提案する。
BokehFlowは、オールインフォーカス画像から直接フォトリアリスティックなボケ効果を合成し、深度入力を不要にする。
テキストプロンプトを通じてフォーカス領域とブラーインテンシティの両方のセマンティックコントロールを可能にするために、クロスアテンション機構を採用している。
トレーニングと評価を支援するために,4つのデータセットを収集し合成する。
大規模な実験により、BokehFlowは視覚的に魅力的なボケ効果を達成し、正確な制御を提供し、レンダリング品質と効率の両方において、既存の深度に依存した生成方法よりも優れています。
関連論文リスト
- BokehDiff: Neural Lens Blur with One-Step Diffusion [62.59018200914645]
ボケフディフ(BokehDiff)は、物理的に正確で視覚的に魅力的な結果が得られるレンズボウ描画法である。
提案手法では, 画像形成プロセスと整合する自己認識モジュールを物理に着想を得た。
付加雑音を導入することなく1ステップの推論方式に拡散モデルを適応させ,高品質で忠実な結果を得る。
論文 参考訳(メタデータ) (2025-07-24T03:23:19Z) - Bokehlicious: Photorealistic Bokeh Rendering with Controllable Apertures [51.16022611377722]
ボケのレンダリング手法は、プロの写真に見られる視覚的に魅力的で、ソフトにぼやけた背景を作り出す上で重要な役割を果たしている。
本稿では,Aperture-Aware Attention 機構を用いて,ボケの強度を直感的に制御する高効率ネットワークであるBokehliciousを提案する。
プロの写真家が撮影した23,000の高解像度(24-MP)の画像を含む新しいデータセットであるRealBokehを提示する。
論文 参考訳(メタデータ) (2025-03-20T12:00:45Z) - Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - Defocus to focus: Photo-realistic bokeh rendering by fusing defocus and
radiance priors [26.38833313692807]
Bokehレンダリングは、プロの写真における美的浅層深度(DoF)を模倣している。
既存の手法は、単純な平坦な背景のぼやけと、焦点内領域のぼやけに悩まされている。
本稿では,現実的なボケレンダリングを学習するためのD2Fフレームワークについて述べる。
論文 参考訳(メタデータ) (2023-06-07T15:15:13Z) - Bokeh-Loss GAN: Multi-Stage Adversarial Training for Realistic
Edge-Aware Bokeh [3.8811606213997587]
我々は単分子ボケ合成の問題に取り組み、単一のオールインフォーカス画像から被写界画像の浅い深さを描画しようと試みる。
DSLRカメラとは異なり、この効果は移動体開口の物理的制約のため、移動体カメラでは直接キャプチャできない。
本稿では,単一の画像入力から現実的なモノクロボケをレンダリングできるネットワークベースのアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-25T20:57:07Z) - Natural & Adversarial Bokeh Rendering via Circle-of-Confusion Predictive
Network [25.319666328268116]
Bokeh効果は被写界深度が浅い現象で、写真では焦点がぼやけている。
我々は、全く新しい問題、すなわち自然と敵対的なボケのレンダリングについて研究する。
本稿では,データ駆動方式と物理認識方式のそれぞれの利点を生かして,ハイブリッドな代替案を提案する。
論文 参考訳(メタデータ) (2021-11-25T09:08:45Z) - AIM 2020 Challenge on Rendering Realistic Bokeh [95.87775182820518]
本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
論文 参考訳(メタデータ) (2020-11-10T09:15:38Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z) - Depth-aware Blending of Smoothed Images for Bokeh Effect Generation [10.790210744021072]
本稿では,画像から高品質なボケ効果を生成するために,エンドツーエンドのディープラーニングフレームワークを提案する。
ネットワークは軽量で、HD画像を0.03秒で処理できる。
このアプローチは、AIM 2019 Bokeh effect Challenge-Perceptual Trackで2位にランクインした。
論文 参考訳(メタデータ) (2020-05-28T18:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。