論文の概要: Recovering 3D Shapes from Ultra-Fast Motion-Blurred Images
- arxiv url: http://arxiv.org/abs/2602.07860v1
- Date: Sun, 08 Feb 2026 08:17:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.83743
- Title: Recovering 3D Shapes from Ultra-Fast Motion-Blurred Images
- Title(参考訳): 超高速モーションブラインド画像から3次元形状を復元する
- Authors: Fei Yu, Shudan Guo, Shiqing Xin, Beibei Wang, Haisen Zhao, Wenzheng Chen,
- Abstract要約: 本稿では,超高速モーションブル画像からの形状復元のための新しい逆レンダリング手法を提案する。
そこで本研究では,計算オーバーヘッドを大幅に低減し,最大4.57倍の高速化を実現する高速な偏心座標解法を提案する。
本手法は完全に微分可能であり, 描画画像から下層の3次元形状へ勾配が伝播し, 逆レンダリングによる形状回復を容易にする。
- 参考スコア(独自算出の注目度): 25.077820613486733
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We consider the problem of 3D shape recovery from ultra-fast motion-blurred images. While 3D reconstruction from static images has been extensively studied, recovering geometry from extreme motion-blurred images remains challenging. Such scenarios frequently occur in both natural and industrial settings, such as fast-moving objects in sports (e.g., balls) or rotating machinery, where rapid motion distorts object appearance and makes traditional 3D reconstruction techniques like Multi-View Stereo (MVS) ineffective. In this paper, we propose a novel inverse rendering approach for shape recovery from ultra-fast motion-blurred images. While conventional rendering techniques typically synthesize blur by averaging across multiple frames, we identify a major computational bottleneck in the repeated computation of barycentric weights. To address this, we propose a fast barycentric coordinate solver, which significantly reduces computational overhead and achieves a speedup of up to 4.57x, enabling efficient and photorealistic simulation of high-speed motion. Crucially, our method is fully differentiable, allowing gradients to propagate from rendered images to the underlying 3D shape, thereby facilitating shape recovery through inverse rendering. We validate our approach on two representative motion types: rapid translation and rotation. Experimental results demonstrate that our method enables efficient and realistic modeling of ultra-fast moving objects in the forward simulation. Moreover, it successfully recovers 3D shapes from 2D imagery of objects undergoing extreme translational and rotational motion, advancing the boundaries of vision-based 3D reconstruction. Project page: https://maxmilite.github.io/rec-from-ultrafast-blur/
- Abstract(参考訳): 超高速モーションブルー画像からの3次元形状復元の問題点を考察する。
静止画像からの3次元再構成は広範に研究されているが、極端に動きのある画像からの幾何の復元はいまだに困難である。
このようなシナリオは、スポーツ(例えばボール)の高速移動物体や回転機械など、自然と工業の両方で頻繁に発生し、素早い動きは物体の外観を歪め、Multi-View Stereo (MVS)のような従来の3D再構成技術は効果がない。
本稿では,超高速モーションブル画像からの形状復元のための新しい逆レンダリング手法を提案する。
従来のレンダリング技術では,複数のフレームを平均化してぼやけを合成することが多いが,重心重みの繰り返し計算における大きな計算ボトルネックを同定する。
そこで本研究では,計算オーバーヘッドを大幅に低減し,最大4.57倍の高速化を実現し,高速動作の効率的かつ光リアルなシミュレーションを可能にする高速バリ中心座標解法を提案する。
重要な点として,本手法は完全に微分可能であり,描画画像から下層の3次元形状へ勾配が伝播し,逆レンダリングによる形状回復が容易になる。
高速翻訳と回転の2つの代表的な動作タイプに対して,本手法の有効性を検証した。
実験により,本手法は前方シミュレーションにおける超高速移動物体の効率的かつ現実的なモデリングを可能にすることを示した。
さらに、極端翻訳・回転運動中の物体の2次元画像から3次元形状を復元し、視覚に基づく3次元再構成の境界を推し進めることに成功した。
プロジェクトページ:https://maxmilite.github.io/rec-from-ultrafast-blur/
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - CoMoGaussian: Continuous Motion-Aware Gaussian Splatting from Motion-Blurred Images [19.08403715388913]
3D Gaussian Splattingは高品質のノベルビューレンダリングのために注目されている。
重要な問題は、露出中の動きによるカメラの動きのぼかしであり、正確な3Dシーンの復元を妨げる。
動きブル画像から正確な3Dシーンを再構成する連続運動対応ガウス版CoMoGaussianを提案する。
論文 参考訳(メタデータ) (2025-03-07T11:18:43Z) - Stereo4D: Learning How Things Move in 3D from Internet Stereo Videos [76.07894127235058]
本稿では,インターネットの立体視,広角ビデオから高品質な4D再構成をマイニングするシステムを提案する。
本研究では,この手法を用いて世界整合型擬似3次元点雲の形で大規模データを生成する。
DUSt3Rの変種をトレーニングし、実世界の画像対から構造と3次元運動を予測することで、このデータの有用性を実証する。
論文 参考訳(メタデータ) (2024-12-12T18:59:54Z) - ExFMan: Rendering 3D Dynamic Humans with Hybrid Monocular Blurry Frames and Events [7.820081911598502]
ハイブリットフレームベースのRGBとバイオインスパイアされたイベントカメラを用いて,高品質な人間を高速動作でレンダリングする,最初のニューラルレンダリングフレームワークであるExFManを提案する。
まず、標準空間における3次元物体の速度場を定式化し、それを画像空間に描画して、動きのぼやけのある身体部位を識別する。
次に,2つの新たな損失,すなわちベロシティ対応光度損失とベロシティ関連事象損失を提案し,ニューラル・ヒューマンを両モードで最適化する。
論文 参考訳(メタデータ) (2024-09-21T10:58:01Z) - CRiM-GS: Continuous Rigid Motion-Aware Gaussian Splatting from Motion-Blurred Images [14.738528284246545]
CRiM-GS は textbfContinuous textbfRigid textbfMotion-aware textbfGaussian textbfSplatting である。
リアルタイムレンダリング速度を維持しながら、モーションブルーの画像から正確な3Dシーンを再構築する。
論文 参考訳(メタデータ) (2024-07-04T13:37:04Z) - SpatialTracker: Tracking Any 2D Pixels in 3D Space [71.58016288648447]
本稿では,画像投影による問題点を軽減するために,3次元空間における点軌道の推定を提案する。
この手法はSpatialTrackerと呼ばれ、2Dピクセルをモノクロ深度推定器を用いて3Dにリフトする。
3Dでのトラッキングにより、ピクセルを異なる剛性部分にクラスタ化する剛性埋め込みを同時に学習しながら、ARAP(as-rigid-as-possible)制約を活用することができます。
論文 参考訳(メタデータ) (2024-04-05T17:59:25Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。