論文の概要: CircleFlow: Flow-Guided Camera Blur Estimation using a Circle Grid Target
- arxiv url: http://arxiv.org/abs/2512.00796v1
- Date: Sun, 30 Nov 2025 09:12:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.425171
- Title: CircleFlow: Flow-Guided Camera Blur Estimation using a Circle Grid Target
- Title(参考訳): Circle Flow:円格子ターゲットを用いたフローガイドカメラブレア推定
- Authors: Jiajian He, Enjie Hu, Shiqi Chen, Tianchen Qiu, Huajun Feng, Zhihai Xu, Yueting Chen,
- Abstract要約: ポイントスプレッド機能(PSF)は、現実世界のシーンをキャプチャされた信号にリンクする基本的な記述子として機能し、カメラのぼやけとして現れる。
本研究では,フロー誘導エッジローカライゼーションを用いた高忠実度PSF推定フレームワークであるCircleFlowを紹介した。
- 参考スコア(独自算出の注目度): 15.783197562533376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The point spread function (PSF) serves as a fundamental descriptor linking the real-world scene to the captured signal, manifesting as camera blur. Accurate PSF estimation is crucial for both optical characterization and computational vision, yet remains challenging due to the inherent ambiguity and the ill-posed nature of intensity-based deconvolution. We introduce CircleFlow, a high-fidelity PSF estimation framework that employs flow-guided edge localization for precise blur characterization. CircleFlow begins with a structured capture that encodes locally anisotropic and spatially varying PSFs by imaging a circle grid target, while leveraging the target's binary luminance prior to decouple image and kernel estimation. The latent sharp image is then reconstructed through subpixel alignment of an initialized binary structure guided by optical flow, whereas the PSF is modeled as an energy-constrained implicit neural representation. Both components are jointly optimized within a demosaicing-aware differentiable framework, ensuring physically consistent and robust PSF estimation enabled by accurate edge localization. Extensive experiments on simulated and real-world data demonstrate that CircleFlow achieves state-of-the-art accuracy and reliability, validating its effectiveness for practical PSF calibration.
- Abstract(参考訳): ポイントスプレッド機能(PSF)は、現実世界のシーンをキャプチャされた信号にリンクする基本的な記述子として機能し、カメラのぼやけとして現れる。
正確なPSF推定は、光学的特徴付けと計算的ビジョンの両方において重要であるが、固有の曖昧さと強度に基づく非畳み込みの性質のため、依然として困難である。
本研究では,フロー誘導エッジローカライゼーションを用いた高忠実度PSF推定フレームワークであるCircleFlowを紹介した。
CircleFlowは、局所的に異方性と空間的に変化するPSFを、画像とカーネル推定の前にターゲットのバイナリ輝度を利用して撮像することで符号化する構造化キャプチャから始まる。
遅延シャープ画像は、光の流れによって導かれる初期化バイナリ構造のサブピクセルアライメントによって再構成される一方、PSFはエネルギー制約された暗黙の神経表現としてモデル化される。
両方のコンポーネントはデモサイシング対応の差別化フレームワーク内で共同最適化されており、正確なエッジローカライゼーションによって物理的に一貫した堅牢なPSF推定が可能である。
シミュレーションおよび実世界のデータに関する大規模な実験により、CircleFlowは最先端の精度と信頼性を達成し、実用的なPSF校正の有効性を検証した。
関連論文リスト
- Unified Spherical Frontend: Learning Rotation-Equivariant Representations of Spherical Images from Any Camera [12.448357304482668]
統一球面フロントエンド(英: Unified Spherical Frontend、USF)は、レンズに依存しないフレームワークで、任意のカメラからの画像を光線方向対応によって単位球表現に変換する。
USFは高解像度の球面画像を効率的に処理し、ランダムなテスト時間回転で1%未満のパフォーマンス低下を維持する。
論文 参考訳(メタデータ) (2025-11-22T19:57:46Z) - FractalPINN-Flow: A Fractal-Inspired Network for Unsupervised Optical Flow Estimation with Total Variation Regularization [0.0]
FractalPINN-Flowは、高密度光フロー推定のための教師なしのディープラーニングフレームワークである。
基礎的な真実を必要とせず、連続したグレースケールのフレームから直接学習する。
正確で滑らかで、エッジに保存される光学流れ場を生成する。
論文 参考訳(メタデータ) (2025-09-10T15:05:51Z) - Deblur Gaussian Splatting SLAM [57.35366732452066]
Deblur-SLAMは、モーションブルーの入力から鋭い復元を回復するために設計された堅牢なRGB SLAMパイプラインである。
我々は、動きブル画像の物理画像形成過程をモデル化し、観察されたぼやけた画像とぼやけた画像との誤差を最小化する。
我々は,合成および実世界のぼやけた入力データを用いて,シャープマップ推定とサブフレームトラジェクトリ回復のための最先端結果を得る。
論文 参考訳(メタデータ) (2025-03-16T16:59:51Z) - A Physics-Informed Blur Learning Framework for Imaging Systems [20.105957982007283]
本稿では,物理インフォームドPSF学習フレームワークを提案する。
我々のフレームワークは高い精度と普遍的な適用性を達成することができる。
提案手法は,シミュレーションにおける画質の向上を示すとともに,実写画像の目立った画質向上を示す。
論文 参考訳(メタデータ) (2025-02-17T02:54:14Z) - Self-Supervised Spatially Variant PSF Estimation for Aberration-Aware
Depth-from-Defocus [14.383129822833155]
収差認識に基づくデフォーカスからの深度学習(DfD)のための新しい自己教師型学習法を提案する。
PSF推定では、回転対称なPSFを仮定し、極座標系を導入する。
また、実際のDfDの状況で発生する集中呼吸現象にも対処する。
論文 参考訳(メタデータ) (2024-02-28T09:07:26Z) - Vision-Informed Flow Image Super-Resolution with Quaternion Spatial
Modeling and Dynamic Flow Convolution [49.45309818782329]
フロー画像超解像(FISR)は、低分解能フロー画像から高分解能乱流速度場を復元することを目的としている。
既存のFISR法は主に自然画像パターンのフロー画像を処理する。
第一流れの視覚特性インフォームドFISRアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-29T06:48:16Z) - GAFlow: Incorporating Gaussian Attention into Optical Flow [62.646389181507764]
我々はガウス的注意(GA)を光学フローモデルに押し込み、表現学習中に局所特性をアクセントする。
本稿では,既存の Transformer ブロックに簡単に接続可能な新しい Gaussian-Constrained Layer (GCL) を提案する。
動作解析のための新しいガウス誘導注意モジュール(GGAM)を提供する。
論文 参考訳(メタデータ) (2023-09-28T07:46:01Z) - Uncertainty-Driven Dense Two-View Structure from Motion [27.17774054474532]
本研究は、動き(SfM)問題から高密度な2次元構造を効果的かつ実用的な解法として導入する。
注意深く推定されたカメラポーズと画素ごとの光フロー対応により、シーンの深度を計算する。
提案手法は,DeMoN,YFCC100M,ScanNetなどのベンチマークデータセットでテストした場合,SuperPointとSuperGlueの精度に代えて,顕著な深度精度と最先端のカメラポーズを実現する。
論文 参考訳(メタデータ) (2023-02-01T15:52:24Z) - Deep Rotation Correction without Angle Prior [57.76737888499145]
我々は,高コンテンツ忠実度で傾きを自動的に補正する,回転補正という新しい実用的タスクを提案する。
このタスクは画像編集アプリケーションに簡単に統合でき、ユーザーは手動操作なしで回転した画像を修正できる。
我々はニューラルネットワークを利用して、傾斜した画像を知覚的に水平に歪めることができる光学フローを予測する。
論文 参考訳(メタデータ) (2022-07-07T02:46:27Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - PU-Flow: a Point Cloud Upsampling Networkwith Normalizing Flows [58.96306192736593]
本稿では,正規化フローを組み込んだPU-Flowについて述べる。
具体的には、重みが局所的な幾何学的文脈から適応的に学習される潜在空間において、アップサンプリング過程を点として定式化する。
提案手法は, 再現性, 近接精度, 計算効率の観点から, 最先端の深層学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-07-13T07:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。