論文の概要: RESFM: Robust Equivariant Multiview Structure from Motion
- arxiv url: http://arxiv.org/abs/2404.14280v1
- Date: Mon, 22 Apr 2024 15:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 13:27:39.620057
- Title: RESFM: Robust Equivariant Multiview Structure from Motion
- Title(参考訳): RESFM: モーションからのロバストな等価なマルチビュー構造
- Authors: Fadi Khatib, Yoni Kasten, Dror Moran, Meirav Galun, Ronen Basri,
- Abstract要約: マルチビュー・ストラクチャー・オブ・モーション(Multiview Structure from Motion)は、コンピュータビジョンの基本的な問題である。
Inlier/outlier 分類モジュールを追加することで、outlier を扱うのに適したアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 20.45039318017998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiview Structure from Motion is a fundamental and challenging computer vision problem. A recent deep-based approach was proposed utilizing matrix equivariant architectures for the simultaneous recovery of camera pose and 3D scene structure from large image collections. This work however made the unrealistic assumption that the point tracks given as input are clean of outliers. Here we propose an architecture suited to dealing with outliers by adding an inlier/outlier classifying module that respects the model equivariance and by adding a robust bundle adjustment step. Experiments demonstrate that our method can be successfully applied in realistic settings that include large image collections and point tracks extracted with common heuristics and include many outliers.
- Abstract(参考訳): マルチビュー・ストラクチャー・オブ・モーション(Multiview Structure from Motion)は、コンピュータビジョンの基本的な問題である。
近年,大規模な画像コレクションからカメラポーズと3次元シーン構造を同時復元するために,行列同変アーキテクチャを用いたディープベース手法が提案されている。
しかし、この研究は入力として与えられた点線が外れ値の清浄であるという非現実的な仮定を導いた。
本稿では,モデル同値を尊重するイリヤ/イリヤ分類モジュールの追加と,ロバストなバンドル調整ステップの追加により,外れ値を扱うのに適したアーキテクチャを提案する。
実験により,本手法は,一般的なヒューリスティックで抽出された大量の画像収集やポイントトラックを含む現実的な設定にうまく適用でき,多くの外れ値を含むことを示す。
関連論文リスト
- EasyHOI: Unleashing the Power of Large Models for Reconstructing Hand-Object Interactions in the Wild [79.71523320368388]
本研究の目的は,手動物体のインタラクションを単一視点画像から再構築することである。
まず、手ポーズとオブジェクト形状を推定する新しいパイプラインを設計する。
最初の再構築では、事前に誘導された最適化方式を採用する。
論文 参考訳(メタデータ) (2024-11-21T16:33:35Z) - CVAM-Pose: Conditional Variational Autoencoder for Multi-Object Monocular Pose Estimation [3.5379836919221566]
剛体物体のポーズを推定することはコンピュータビジョンの基本的な問題の一つである。
本稿では,多目的単分子ポーズ推定のための新しいアプローチCVAM-Poseを提案する。
論文 参考訳(メタデータ) (2024-10-11T17:26:27Z) - MASt3R-SfM: a Fully-Integrated Solution for Unconstrained Structure-from-Motion [12.602510002753815]
我々は最近リリースされた3Dビジョンのための基礎モデルを構築し、局所的な3D再構成と正確なマッチングを堅牢に生成できる。
グローバル座標系における局所的再構成を正確に調整するための低メモリ方式を提案する。
私たちの新しいSfMパイプラインはシンプルで、スケーラブルで、高速で、本当に制約を受けていない。
論文 参考訳(メタデータ) (2024-09-27T21:29:58Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - RelPose: Predicting Probabilistic Relative Rotation for Single Objects
in the Wild [73.1276968007689]
本稿では、任意のオブジェクトの複数の画像からカメラ視点を推定するデータ駆動手法について述べる。
本手法は, 画像の鮮明さから, 最先端のSfM法とSLAM法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-11T17:59:59Z) - FvOR: Robust Joint Shape and Pose Optimization for Few-view Object
Reconstruction [37.81077373162092]
数枚の画像から正確な3Dオブジェクトモデルを再構築することは、コンピュータビジョンにおいて難しい問題である。
FvORは、ノイズの多い入力ポーズを持つ数枚の画像から正確な3Dモデルを予測する学習ベースのオブジェクト再構成手法である。
論文 参考訳(メタデータ) (2022-05-16T15:39:27Z) - Shelf-Supervised Mesh Prediction in the Wild [54.01373263260449]
本研究では,物体の3次元形状とポーズを1つの画像から推定する学習手法を提案する。
まず、カメラのポーズとともに、標準フレーム内の体積表現を推定する。
粗い体積予測はメッシュベースの表現に変換され、予測されたカメラフレームでさらに洗練される。
論文 参考訳(メタデータ) (2021-02-11T18:57:10Z) - 6D Camera Relocalization in Ambiguous Scenes via Continuous Multimodal
Inference [67.70859730448473]
あいまいさと不確かさを捉えるマルチモーダルカメラ再ローカライズフレームワークを提案する。
我々は、複数のカメラのポーズ仮説を予測し、それぞれの予測の不確実性も予測する。
あいまいな環境下でのカメラローカライゼーション研究を促進するための新しいデータセットを提案する。
論文 参考訳(メタデータ) (2020-04-09T20:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。