論文の概要: Learning to Refocus with Video Diffusion Models
- arxiv url: http://arxiv.org/abs/2512.19823v2
- Date: Wed, 24 Dec 2025 16:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 13:34:31.950407
- Title: Learning to Refocus with Video Diffusion Models
- Title(参考訳): ビデオ拡散モデルによる再焦点学習
- Authors: SaiKiran Tedla, Zhoutong Zhang, Xuaner Zhang, Shumian Xin,
- Abstract要約: 本稿では,映像拡散モデルを用いた現実的な撮影後再焦点のための新しい手法を提案する。
単一の非焦点画像から,ビデオシーケンスとして表現された知覚的精度の高い焦点スタックを生成する。
提案手法は,難解なシナリオにまたがる知覚的品質と堅牢性の両方において,既存のアプローチを一貫して上回ります。
- 参考スコア(独自算出の注目度): 10.749713029715226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Focus is a cornerstone of photography, yet autofocus systems often fail to capture the intended subject, and users frequently wish to adjust focus after capture. We introduce a novel method for realistic post-capture refocusing using video diffusion models. From a single defocused image, our approach generates a perceptually accurate focal stack, represented as a video sequence, enabling interactive refocusing and unlocking a range of downstream applications. We release a large-scale focal stack dataset acquired under diverse real-world smartphone conditions to support this work and future research. Our method consistently outperforms existing approaches in both perceptual quality and robustness across challenging scenarios, paving the way for more advanced focus-editing capabilities in everyday photography. Code and data are available at https://learn2refocus.github.io
- Abstract(参考訳): フォーカスは写真の基礎だが、オートフォーカスシステムは意図した対象を捉えないことが多く、ユーザーはキャプチャ後にフォーカスを調整したいと願う。
本稿では,映像拡散モデルを用いた現実的な撮影後再焦点のための新しい手法を提案する。
単一の非焦点画像から,ビデオシーケンスとして表現された知覚的精度の高い焦点スタックを生成し,対話的再焦点化を実現し,下流アプリケーションの範囲をアンロックする。
我々は,この作業と今後の研究を支援するために,さまざまな実世界のスマートフォン条件下で取得した大規模な焦点スタックデータセットをリリースする。
本手法は, 日常撮影において, より高度な焦点編集機能を実現するために, 難解なシナリオにまたがって, 知覚品質と堅牢性の両方において, 既存のアプローチを常に上回っている。
コードとデータはhttps://learn2refocus.github.ioで公開されている。
関連論文リスト
- Generative Refocusing: Flexible Defocus Control from a Single Image [12.798805351731668]
我々は、DeNetを使って様々な入力からオールインフォーカスイメージを復元する2段階のプロセスであるGenerative Refocusingと、制御可能なボケを作成するBokehNetを紹介した。
実験の結果,デフォーカス・デブロアリング,ボケ合成,再焦点ベンチマークにおいて,最高の性能を達成できた。
論文 参考訳(メタデータ) (2025-12-18T18:59:59Z) - Fine-grained Defocus Blur Control for Generative Image Models [66.30016220484394]
現在のテキストと画像の拡散モデルは、多様な高品質な画像を生成するのに優れている。
本稿では,カメラメタデータを活用した新しいテキスト・画像拡散フレームワークを提案する。
我々のモデルは、描写されたシーンを変更することなく、より優れたきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2025-10-07T17:59:15Z) - DiffCamera: Arbitrary Refocusing on Images [55.948229011478304]
DiffCameraは、任意の新しいフォーカスポイントとぼやけレベルに条件付けされた生成画像のフレキシブルな再フォーカスを可能にするモデルである。
DiffCameraは、さまざまな場面で安定したリフォーカスをサポートし、写真や生成AIアプリケーションのためのDoF調整を前例のないコントロールを提供する。
論文 参考訳(メタデータ) (2025-09-30T17:48:23Z) - SparseFocus: Learning-based One-shot Autofocus for Microscopy with Sparse Content [21.268550523841117]
オートフォーカスは顕微鏡画像における高スループットおよびリアルタイム走査に必要である。
最近の学習に基づくアプローチは、ワンショット環境で顕著な効果を示している。
SparseFocusという名前のコンテンツベースのソリューションを提案し、新しい2段階パイプラインを特徴とする。
論文 参考訳(メタデータ) (2025-02-10T13:31:32Z) - Towards Real-World Focus Stacking with Deep Learning [97.34754533628322]
焦点ブラケットを用いた94個の高解像度原画像のバーストからなる新しいデータセットを提案する。
このデータセットは、現実世界のアプリケーションに十分な長さのバーストを処理できるフォーカススタックのための最初のディープラーニングアルゴリズムをトレーニングするために使用される。
論文 参考訳(メタデータ) (2023-11-29T17:49:33Z) - Defocus Map Estimation and Deblurring from a Single Dual-Pixel Image [54.10957300181677]
本稿では,1枚のデュアルピクセルイメージを入力として,画像のデフォーカスマップを同時に推定する手法を提案する。
本手法は,デフォーカスマップ推定とぼかし除去の両方において,教師なしでも事前作業を改善する。
論文 参考訳(メタデータ) (2021-10-12T00:09:07Z) - An End-to-End Autofocus Camera for Iris on the Move [48.14011526385088]
本稿では,焦点可変レンズを用いた移動物体の虹彩領域を能動的に再焦点する高速オートフォーカスカメラを提案する。
我々のエンドツーエンドの計算アルゴリズムは、1つのぼやけた画像からベストフォーカス位置を予測し、自動的にレンズダイオプタ制御信号を生成する。
その結果,静的および動的シーンにおける生体認識のためのカメラの利点が示された。
論文 参考訳(メタデータ) (2021-06-29T03:00:39Z) - Defocus Deblurring Using Dual-Pixel Data [41.201653787083735]
デフォーカスのぼかしは、広い開口部の使用により被写界深度が浅い画像に現れる。
最新のカメラで検出されるデュアルピクセル(DP)センサで利用可能なデータを活用する,効果的なデフォーカスデブロリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T10:38:00Z) - Rapid Whole Slide Imaging via Learning-based Two-shot Virtual
Autofocusing [57.90239401665367]
ホイルスライドイメージング(WSI)は、デジタル病理の新たな技術である。
本稿では,リフォーカスを行うための機械的調整に依存しないテキスト仮想オートフォーカスの概念を提案する。
論文 参考訳(メタデータ) (2020-03-14T13:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。