論文の概要: Joint Deblurring and 3D Reconstruction for Macrophotography
- arxiv url: http://arxiv.org/abs/2510.01640v1
- Date: Thu, 02 Oct 2025 03:43:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.974903
- Title: Joint Deblurring and 3D Reconstruction for Macrophotography
- Title(参考訳): マクロフォトグラフィーにおける関節脱臭と3次元再構成
- Authors: Yifan Zhao, Liangchen Li, Yuqi Zhou, Kai Wang, Yan Liang, Juyong Zhang,
- Abstract要約: 本稿では,マクロフォトグラフィの3次元再構成法を提案する。
オブジェクトのクリアな3次元モデルと各ピクセルのデフォーカスブラーカーネルを共同で最適化する。
提案手法は,画質の劣化だけでなく,高忠実度3D外観の復元も可能である。
- 参考スコア(独自算出の注目度): 30.941639453575476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Macro lens has the advantages of high resolution and large magnification, and 3D modeling of small and detailed objects can provide richer information. However, defocus blur in macrophotography is a long-standing problem that heavily hinders the clear imaging of the captured objects and high-quality 3D reconstruction of them. Traditional image deblurring methods require a large number of images and annotations, and there is currently no multi-view 3D reconstruction method for macrophotography. In this work, we propose a joint deblurring and 3D reconstruction method for macrophotography. Starting from multi-view blurry images captured, we jointly optimize the clear 3D model of the object and the defocus blur kernel of each pixel. The entire framework adopts a differentiable rendering method to self-supervise the optimization of the 3D model and the defocus blur kernel. Extensive experiments show that from a small number of multi-view images, our proposed method can not only achieve high-quality image deblurring but also recover high-fidelity 3D appearance.
- Abstract(参考訳): マクロレンズは高解像度と高倍率の利点があり、小型で詳細な物体の3次元モデリングはよりリッチな情報を提供することができる。
しかし、マクロフォトグラフィーにおけるデフォーカスのぼかしは、捕獲された物体の鮮明な画像化と高品質な3D再構成を著しく妨げる長年の問題である。
従来の画像デブロアリング法は多数の画像とアノテーションを必要としており、マクロフォトグラフィーのマルチビュー3D再構成法は存在しない。
そこで本研究では,マクロフォトグラフィの3次元再構成法を提案する。
マルチビューのぼかし画像から始めると、オブジェクトのクリアな3次元モデルと各ピクセルのデフォーカスのぼかしカーネルを共同で最適化する。
フレームワーク全体では、3Dモデルとデフォーカスのぼかしカーネルの最適化を自己監督するために、微分可能なレンダリング方式を採用している。
広汎な実験により, 少数の多視点画像から, 提案手法は高品質な画像の劣化だけでなく, 高忠実度3Dの外観を再現できることがわかった。
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - CDI3D: Cross-guided Dense-view Interpolation for 3D Reconstruction [25.468907201804093]
大規模再構成モデル (LRM) は, 2次元拡散モデルにより生成された多視点画像を利用して3次元コンテンツを抽出する際の大きな可能性を示している。
しかし、2次元拡散モデルはしばしば、強い多視点一貫性を持つ高密度画像を生成するのに苦労する。
CDI3Dは,高画質で高画質な3D画像生成を実現するためのフィードフォワードフレームワークである。
論文 参考訳(メタデータ) (2025-03-11T03:08:43Z) - Extended monocular 3D imaging [3.964710267993159]
光のベクトル波特性を完全に活用する拡張単分子3次元イメージング(EM3D)フレームワークを提案する。
拡大シーンに対して,100万画素で正確な3Dポイントクラウドのスナップショット取得を実験的に実証した。
論文 参考訳(メタデータ) (2025-02-11T09:32:31Z) - Direct and Explicit 3D Generation from a Single Image [25.207277983430608]
マルチビュー2次元深度画像とRGB画像を用いて表面形状とテクスチャを直接生成する新しいフレームワークを提案する。
画素レベルの多視点整合性を実現するために,エピポーラの注意を潜時から画素間デコーダに組み込む。
生成した深度画素を3次元空間にバックプロジェクションすることにより、構造化された3次元表現を生成する。
論文 参考訳(メタデータ) (2024-11-17T03:14:50Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Era3D: High-Resolution Multiview Diffusion using Efficient Row-wise Attention [87.02613021058484]
単一視点画像から高解像度のマルチビュー画像を生成する新しい多視点拡散法であるEra3Dを紹介する。
Era3Dは、最大512*512の解像度で高品質なマルチビュー画像を生成し、複雑さを12倍に削減する。
論文 参考訳(メタデータ) (2024-05-19T17:13:16Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。