論文の概要: Generative Refocusing: Flexible Defocus Control from a Single Image
- arxiv url: http://arxiv.org/abs/2512.16923v1
- Date: Thu, 18 Dec 2025 18:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.262174
- Title: Generative Refocusing: Flexible Defocus Control from a Single Image
- Title(参考訳): 生成的再焦点:単一画像からのフレキシブルデフォーカス制御
- Authors: Chun-Wei Tuan Mu, Jia-Bin Huang, Yu-Lun Liu,
- Abstract要約: 我々は、DeNetを使って様々な入力からオールインフォーカスイメージを復元する2段階のプロセスであるGenerative Refocusingと、制御可能なボケを作成するBokehNetを紹介した。
実験の結果,デフォーカス・デブロアリング,ボケ合成,再焦点ベンチマークにおいて,最高の性能を達成できた。
- 参考スコア(独自算出の注目度): 12.798805351731668
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depth-of-field control is essential in photography, but getting the perfect focus often takes several tries or special equipment. Single-image refocusing is still difficult. It involves recovering sharp content and creating realistic bokeh. Current methods have significant drawbacks. They need all-in-focus inputs, depend on synthetic data from simulators, and have limited control over aperture. We introduce Generative Refocusing, a two-step process that uses DeblurNet to recover all-in-focus images from various inputs and BokehNet for creating controllable bokeh. Our main innovation is semi-supervised training. This method combines synthetic paired data with unpaired real bokeh images, using EXIF metadata to capture real optical characteristics beyond what simulators can provide. Our experiments show we achieve top performance in defocus deblurring, bokeh synthesis, and refocusing benchmarks. Additionally, our Generative Refocusing allows text-guided adjustments and custom aperture shapes.
- Abstract(参考訳): 被写界深度制御は撮影に不可欠だが、完璧な焦点を合わせるにはいくつかの試行や特別な装置が必要になることが多い。
シングルイメージの再フォーカスはまだ難しいです。
鋭いコンテンツを回復し、現実的なボケを作る。
現在の手法には大きな欠点がある。
彼らはオールインフォーカス入力を必要とし、シミュレータの合成データに依存し、開口の制御に制限がある。
DeblurNetを使って様々な入力からオールインフォーカスイメージを復元する2ステッププロセスであるGenerative Refocusingと、制御可能なボケを作成するBokehNetを紹介する。
私たちの主な革新は、半教師付きトレーニングです。
この方法では、合成ペアデータと実ボケ画像とを合成し、EXIFメタデータを使用してシミュレータが提供できる以上の実際の光学特性をキャプチャする。
実験の結果,デフォーカス・デブロアリング,ボケ合成,再焦点ベンチマークにおいて,最高の性能を達成できた。
さらに、ジェネレーティブ・リフォーカスはテキスト誘導による調整とカスタム開口形状を可能にします。
関連論文リスト
- BokehFlow: Depth-Free Controllable Bokeh Rendering via Flow Matching [33.101056425502584]
ボケレンダリングは、写真における浅い視野効果をシミュレートし、視覚美学を強化し、興味のある領域への視聴者の注意を誘導する。
本稿では,フローマッチングに基づくボケレンダリングのためのフレームワークであるボケフローを提案する。
BokehFlowは、オールインフォーカス画像から直接フォトリアリスティックなボケ効果を合成し、深度入力を不要にする。
論文 参考訳(メタデータ) (2025-11-19T03:18:58Z) - Fine-grained Defocus Blur Control for Generative Image Models [66.30016220484394]
現在のテキストと画像の拡散モデルは、多様な高品質な画像を生成するのに優れている。
本稿では,カメラメタデータを活用した新しいテキスト・画像拡散フレームワークを提案する。
我々のモデルは、描写されたシーンを変更することなく、より優れたきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2025-10-07T17:59:15Z) - DiffCamera: Arbitrary Refocusing on Images [55.948229011478304]
DiffCameraは、任意の新しいフォーカスポイントとぼやけレベルに条件付けされた生成画像のフレキシブルな再フォーカスを可能にするモデルである。
DiffCameraは、さまざまな場面で安定したリフォーカスをサポートし、写真や生成AIアプリケーションのためのDoF調整を前例のないコントロールを提供する。
論文 参考訳(メタデータ) (2025-09-30T17:48:23Z) - Bokehlicious: Photorealistic Bokeh Rendering with Controllable Apertures [51.16022611377722]
ボケのレンダリング手法は、プロの写真に見られる視覚的に魅力的で、ソフトにぼやけた背景を作り出す上で重要な役割を果たしている。
本稿では,Aperture-Aware Attention 機構を用いて,ボケの強度を直感的に制御する高効率ネットワークであるBokehliciousを提案する。
プロの写真家が撮影した23,000の高解像度(24-MP)の画像を含む新しいデータセットであるRealBokehを提示する。
論文 参考訳(メタデータ) (2025-03-20T12:00:45Z) - Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Defocus to focus: Photo-realistic bokeh rendering by fusing defocus and
radiance priors [26.38833313692807]
Bokehレンダリングは、プロの写真における美的浅層深度(DoF)を模倣している。
既存の手法は、単純な平坦な背景のぼやけと、焦点内領域のぼやけに悩まされている。
本稿では,現実的なボケレンダリングを学習するためのD2Fフレームワークについて述べる。
論文 参考訳(メタデータ) (2023-06-07T15:15:13Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。