論文の概要: Trajectory Densification and Depth from Perspective-based Blur
- arxiv url: http://arxiv.org/abs/2512.08627v1
- Date: Tue, 09 Dec 2025 14:11:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:07.99132
- Title: Trajectory Densification and Depth from Perspective-based Blur
- Title(参考訳): パースペクティブベースブラからの軌道密度と深さ
- Authors: Tianchen Qiu, Qirun Zhang, Jiajian He, Zhengyue Zhuge, Jiahui Xu, Yueting Chen,
- Abstract要約: 本稿では,ビデオストリームのぼやけたパターンと高密度軌跡を検証し,距離深さを推定する手法を提案する。
映像情報の抽出には市販のビジョンエンコーダとポイントトラッカーを用いる。
ウィンドウ埋め込みとマルチウィンドウ集約により深度マップを推定し、視覚言語モデルを用いて光学アルゴリズムからスパース軌道を密度化する。
- 参考スコア(独自算出の注目度): 7.956671370979006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the absence of a mechanical stabilizer, the camera undergoes inevitable rotational dynamics during capturing, which induces perspective-based blur especially under long-exposure scenarios. From an optical standpoint, perspective-based blur is depth-position-dependent: objects residing at distinct spatial locations incur different blur levels even under the same imaging settings. Inspired by this, we propose a novel method that estimate metric depth by examining the blur pattern of a video stream and dense trajectory via joint optical design algorithm. Specifically, we employ off-the-shelf vision encoder and point tracker to extract video information. Then, we estimate depth map via windowed embedding and multi-window aggregation, and densify the sparse trajectory from the optical algorithm using a vision-language model. Evaluations on multiple depth datasets demonstrate that our method attains strong performance over large depth range, while maintaining favorable generalization. Relative to the real trajectory in handheld shooting settings, our optical algorithm achieves superior precision and the dense reconstruction maintains strong accuracy.
- Abstract(参考訳): メカニカル・スタビライザーがない場合、カメラはキャプチャ中に必然的に回転のダイナミクスを実行し、特に長時間露光のシナリオにおいて視点に基づくぼやけを引き起こす。
光学的観点から見れば、視点に基づくぼやけは深度に依存している:同じ撮影条件下であっても、異なる空間的位置にある物体は異なるぼやけレベルを発生させる。
そこで本研究では,映像ストリームと高密度軌道のぼやけたパターンを共同光学設計アルゴリズムを用いて検討し,距離深さを推定する手法を提案する。
具体的には,映像情報を抽出するために市販のビジョンエンコーダとポイントトラッカーを用いる。
そして,ウィンドウ埋め込みとマルチウィンドウ集約により深度マップを推定し,視覚言語モデルを用いて光学アルゴリズムからスパース軌道を密度化する。
複数の深度データセットの評価は,本手法が良好な一般化を維持しつつ,広い深度範囲で高い性能を発揮することを示す。
ハンドヘルド・シューティング・セッティングにおける実際の軌道に対して,光学アルゴリズムは精度が高く,高密度再構成は高い精度を維持している。
関連論文リスト
- Dense-depth map guided deep Lidar-Visual Odometry with Sparse Point Clouds and Images [4.320220844287486]
オドメトリは、自律システムにとって、自己ローカライゼーションとナビゲーションにとって重要なタスクである。
我々は,LiDARの点雲と画像を統合し,正確なポーズ推定を行う新しいLiDAR-Visual odometryフレームワークを提案する。
提案手法は,最先端のビジュアルおよびLiDARオドメトリー法と比較して,類似あるいは優れた精度とロバスト性を実現する。
論文 参考訳(メタデータ) (2025-07-21T10:58:10Z) - Seurat: From Moving Points to Depth [66.65189052568209]
本研究では,2次元軌跡の空間的関係と時間的変化を調べ,相対的な深度を推定する手法を提案する。
提案手法は,様々な領域にわたる時間的スムーズかつ高精度な深度予測を実現する。
論文 参考訳(メタデータ) (2025-04-20T17:37:02Z) - Blurry-Edges: Photon-Limited Depth Estimation from Defocused Boundaries [9.723762227632378]
本稿では,光子制限画像から被写体深度を非集束境界に沿って頑健に測定する新しい手法を提案する。
これは新しいイメージパッチ表現であるBlurry-Edgesに基づいており、バウンダリ、色、滑らかさを含む、低レベルのパッチ情報の豊富なセットを明示的に保存し視覚化する。
論文 参考訳(メタデータ) (2025-03-30T22:17:00Z) - Marigold-DC: Zero-Shot Monocular Depth Completion with Guided Diffusion [57.08169927189237]
奥行き完了のための既存の手法は、厳密に制約された設定で動作する。
単眼深度推定の進歩に触発されて,画像条件の深度マップ生成として深度補完を再構成した。
Marigold-DCは、単分子深度推定のための事前訓練された潜伏拡散モデルを構築し、試験時間ガイダンスとして深度観測を注入する。
論文 参考訳(メタデータ) (2024-12-18T00:06:41Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - Edge-aware Consistent Stereo Video Depth Estimation [3.611754783778107]
本稿では,高密度映像深度推定のための一貫した手法を提案する。
既存のモノラルな方法とは異なり、ステレオビデオに関係しています。
エッジ対応ステレオビデオモデルにより,深度マップを精度良く推定できることを示す。
論文 参考訳(メタデータ) (2023-05-04T08:30:04Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Fast and Accurate Optical Flow based Depth Map Estimation from Light
Fields [22.116100469958436]
既存の光フロー推定法に基づく光場からの深度推定法を提案する。
異なる不均一写像が得られたと推定すると、非常に一貫したものであり、高速で単純な集合のステップで単一の不均一写像を作成できる。
等間隔写像推定は一貫性があるため、各等間隔写像から深度写像を作成し、3次元空間内の異なる深度写像を集約して1つの濃度深度写像を作成することもできる。
論文 参考訳(メタデータ) (2020-08-11T12:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。