論文の概要: Extreme Rotation Estimation using Dense Correlation Volumes
- arxiv url: http://arxiv.org/abs/2104.13530v1
- Date: Wed, 28 Apr 2021 02:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:50:19.297009
- Title: Extreme Rotation Estimation using Dense Correlation Volumes
- Title(参考訳): 密相関量を用いた極端回転推定
- Authors: Ruojin Cai, Bharath Hariharan, Noah Snavely and Hadar Averbuch-Elor
- Abstract要約: 本稿では,RGB画像対の相対的な3次元回転を極端に推定する手法を提案する。
画像が重なり合わなくても、それらの幾何学的関係に関して豊富な隠れた手がかりがあるかもしれないと観察する。
本稿では,2つの入力画像間の全ての点を比較することで,そのような暗黙の手がかりを自動的に学習できるネットワーク設計を提案する。
- 参考スコア(独自算出の注目度): 73.35119461422153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a technique for estimating the relative 3D rotation of an RGB
image pair in an extreme setting, where the images have little or no overlap.
We observe that, even when images do not overlap, there may be rich hidden cues
as to their geometric relationship, such as light source directions, vanishing
points, and symmetries present in the scene. We propose a network design that
can automatically learn such implicit cues by comparing all pairs of points
between the two input images. Our method therefore constructs dense feature
correlation volumes and processes these to predict relative 3D rotations. Our
predictions are formed over a fine-grained discretization of rotations,
bypassing difficulties associated with regressing 3D rotations. We demonstrate
our approach on a large variety of extreme RGB image pairs, including indoor
and outdoor images captured under different lighting conditions and geographic
locations. Our evaluation shows that our model can successfully estimate
relative rotations among non-overlapping images without compromising
performance over overlapping image pairs.
- Abstract(参考訳): 本稿では,RGB画像対の相対的な3次元回転を極端に推定する手法を提案する。
画像が重なり合っていない場合でも、光源方向、消滅点、現場に存在する対称性などの幾何学的関係について、隠れた手がかりが豊富に存在する可能性があることを観察する。
本稿では,2つの入力画像間の全ての点を比較することで,そのような暗黙の手がかりを自動的に学習できるネットワーク設計を提案する。
そこで本手法では, 高密度特徴相関ボリュームを構築し, 相対3次元回転の予測を行う。
3次元回転の後退に伴う困難を回避し,回転の細粒度離散化によって予測を行う。
我々は,照明条件や地理的な位置の異なる屋内・屋外画像を含む,多種多様なRGB画像対に対するアプローチを実証する。
提案手法は,重複しない画像間の相対回転を,重複した画像ペアのパフォーマンスを損なうことなく推定できることを示す。
関連論文リスト
- Extreme Rotation Estimation in the Wild [11.5425189881311]
極端に捉えたインターネット画像間の相対的な3次元配向を推定する手法を提案する。
シーンレベルのインターネット写真コレクションから収集したExtremeLandmarkPairsデータセットをコントリビュートする。
論文 参考訳(メタデータ) (2024-11-11T16:18:28Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Occ$^2$Net: Robust Image Matching Based on 3D Occupancy Estimation for
Occluded Regions [14.217367037250296]
Occ$2$Netは、3D占有率を用いて閉塞関係をモデル化し、閉塞領域の一致点を推測する画像マッチング手法である。
本手法は実世界とシミュレーションデータセットの両方で評価し,いくつかの指標における最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-14T13:09:41Z) - RelPose++: Recovering 6D Poses from Sparse-view Observations [66.6922660401558]
スパースビュー画像集合(2-8画像)から6次元カメラポーズを推定する作業に対処する。
我々は,画像対上の相対回転よりも分布を推定するネットワークを学習するRelPoseフレームワークを構築した。
最終システムは,先行技術よりも6次元ポーズ予測を大幅に改善する。
論文 参考訳(メタデータ) (2023-05-08T17:59:58Z) - Estimating Extreme 3D Image Rotation with Transformer Cross-Attention [13.82735766201496]
画像ペアのアクティベーションマップ間の相互アテンションを計算するために,CNN特徴マップとTransformer-Encoderを利用するクロスアテンションベースのアプローチを提案する。
一般的に使用されている画像回転データセットやベンチマークに適用した場合、現代の最先端のスキームよりも優れた性能を示すことが実験的に示されている。
論文 参考訳(メタデータ) (2023-03-05T09:07:26Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Multi-View Reconstruction using Signed Ray Distance Functions (SRDF) [22.75986869918975]
本稿では,体積の新たな形状表現に基づく新しい計算手法について検討する。
この表現に関連する形状エネルギーは、与えられたカラー画像の3次元形状を評価し、外観予測を必要としない。
実際には、カメラ線に沿った深さによってパラメータ化される符号付き距離に基づいて、暗黙の形状表現であるSRDFを提案する。
論文 参考訳(メタデータ) (2022-08-31T19:32:17Z) - Differentiable Rendering with Perturbed Optimizers [85.66675707599782]
2Dイメージプロジェクションから3Dシーンを推論することは、コンピュータビジョンにおける中核的な問題の一つだ。
我々の研究は、よく知られた微分可能な定式化とランダムなスムーズなレンダリングの関連性を強調している。
提案手法を3次元シーン再構成に適用し,その利点を6次元ポーズ推定と3次元メッシュ再構成の課題に適用した。
論文 参考訳(メタデータ) (2021-10-18T08:56:23Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。