論文の概要: TC-SfM: Robust Track-Community-Based Structure-from-Motion
- arxiv url: http://arxiv.org/abs/2206.05866v1
- Date: Mon, 13 Jun 2022 01:09:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 02:30:10.675085
- Title: TC-SfM: Robust Track-Community-Based Structure-from-Motion
- Title(参考訳): TC-SfM:ロバストトラックコミュニティに基づく構造移動
- Authors: Lei Wang, Linlin Ge, Shan Luo, Zihan Yan, Zhaopeng Cui and Jieqing
Feng
- Abstract要約: 本研究では,現場における高次情報,すなわち地域空間の文脈情報を活用することで,復興を導くことを提案する。
新たな構造、すなわち、各コミュニティがトラックのグループで構成され、シーン内の局所的なセグメントを表現する、テキストトラックコミュニティが提案されている。
- 参考スコア(独自算出の注目度): 24.956499348500763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Structure-from-Motion (SfM) aims to recover 3D scene structures and camera
poses based on the correspondences between input images, and thus the ambiguity
caused by duplicate structures (i.e., different structures with strong visual
resemblance) always results in incorrect camera poses and 3D structures. To
deal with the ambiguity, most existing studies resort to additional constraint
information or implicit inference by analyzing two-view geometries or feature
points. In this paper, we propose to exploit high-level information in the
scene, i.e., the spatial contextual information of local regions, to guide the
reconstruction. Specifically, a novel structure is proposed, namely,
{\textit{track-community}}, in which each community consists of a group of
tracks and represents a local segment in the scene. A community detection
algorithm is used to partition the scene into several segments. Then, the
potential ambiguous segments are detected by analyzing the neighborhood of
tracks and corrected by checking the pose consistency. Finally, we perform
partial reconstruction on each segment and align them with a novel
bidirectional consistency cost function which considers both 3D-3D
correspondences and pairwise relative camera poses. Experimental results
demonstrate that our approach can robustly alleviate reconstruction failure
resulting from visually indistinguishable structures and accurately merge the
partial reconstructions.
- Abstract(参考訳): Structure-from-Motion (SfM) は、入力画像間の対応に基づいて3次元シーン構造とカメラポーズを復元することを目的としており、二重構造(すなわち、強い視覚的類似性を持つ異なる構造)によって生じる曖昧さは、常に正しくないカメラポーズと3次元構造をもたらす。
曖昧さに対処するために、既存の研究のほとんどは、2視点のジオメトリや特徴点を分析して追加の制約情報や暗黙の推論に頼っている。
本稿では,現場における高次情報,すなわち地域空間の文脈情報を活用することを提案する。
具体的には、各コミュニティがトラックのグループで構成され、シーン内の局所的なセグメントを表す、新しい構造、すなわち {\textit{track-community}}を提案する。
コミュニティ検出アルゴリズムを使用して、シーンを複数のセグメントに分割する。
そして、トラックの近傍を分析して潜在的な曖昧なセグメントを検出し、ポーズ整合性をチェックすることで補正する。
最後に,各セグメントに部分的再構成を行い,両面の相対カメラポーズと3D-3D対応を考慮した新しい双方向整合コスト関数と整合する。
実験の結果,視覚的に区別できない構造から生じる復元失敗をロバストに軽減し,部分的再構成を正確にマージできることがわかった。
関連論文リスト
- Towards Localizing Structural Elements: Merging Geometrical Detection with Semantic Verification in RGB-D Data [0.0]
本稿では, 壁面や地表面などの構造成分を局所化するための実時間パイプラインについて, 純三次元平面検出のための幾何計算を統合した。
並列なマルチスレッドアーキテクチャを持ち、環境中で検出されたすべての平面のポーズと方程式を正確に推定し、汎視的セグメンテーション検証を用いて地図構造を形成するものをフィルタリングし、検証された構成部品のみを保持する。
また、検出されたコンポーネントを統一された3次元シーングラフに(再)関連付けることで、幾何学的精度と意味的理解のギャップを埋めることもできる。
論文 参考訳(メタデータ) (2024-09-10T16:28:09Z) - Visual Geometry Grounded Deep Structure From Motion [20.203320509695306]
本稿では,各コンポーネントが完全に微分可能で,エンドツーエンドでトレーニング可能な,新しいディープパイプラインVGGSfMを提案する。
まず, 深部2次元点追跡の最近の進歩をベースとして, 画素精度の高いトラックを抽出し, ペアマッチングのチェーン化の必要性を解消する。
私たちは、CO3D、IMC Phototourism、ETH3Dという3つの一般的なデータセットで最先端のパフォーマンスを達成しました。
論文 参考訳(メタデータ) (2023-12-07T18:59:52Z) - Few-View Object Reconstruction with Unknown Categories and Camera Poses [80.0820650171476]
この研究は、カメラのポーズやオブジェクトのカテゴリを知らない少数の画像から、一般的な現実世界のオブジェクトを再構築する。
私たちの研究の要点は、形状再構成とポーズ推定という、2つの基本的な3D視覚問題を解決することです。
提案手法は,各ビューから3次元特徴を予測し,それらを入力画像と組み合わせて活用し,クロスビュー対応を確立する。
論文 参考訳(メタデータ) (2022-12-08T18:59:02Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Reconstructing Small 3D Objects in front of a Textured Background [0.0]
テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
これは運動から多体構造の特定のバリエーションであり、2つの物体のみに特化している。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
論文 参考訳(メタデータ) (2021-05-24T15:36:33Z) - Deep Permutation Equivariant Structure from Motion [38.68492294795315]
既存のディープメソッドはステレオおよびマルチビューステレオ設定で高精度な3D再構成を生成する。
監視されていない再投影損失を最小限に抑え、カメラパラメータとシーン構造の両方を回復するニューラルネットワークアーキテクチャを提案する。
本手法は,内部校正と非校正設定の両方において,様々なデータセット上で実験を行い,従来の手法と同等の姿勢と構造を正確に復元することを示す。
論文 参考訳(メタデータ) (2021-04-14T08:50:06Z) - Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure
Reconstruction from an RGB Video [90.93141123721713]
ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T10:39:20Z) - Learning Unsupervised Hierarchical Part Decomposition of 3D Objects from
a Single RGB Image [102.44347847154867]
プリミティブの集合として3次元オブジェクトの幾何を共同で復元できる新しい定式化を提案する。
我々のモデルは、プリミティブのバイナリツリーの形で、様々なオブジェクトの高レベルな構造的分解を復元する。
ShapeNet と D-FAUST のデータセットを用いた実験により,部品の組織化を考慮すれば3次元形状の推論が容易になることが示された。
論文 参考訳(メタデータ) (2020-04-02T17:58:05Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z) - Unsupervised Learning of Intrinsic Structural Representation Points [50.92621061405056]
3次元形状の学習構造は、コンピュータグラフィックスと幾何学処理の分野における根本的な問題である。
本稿では,3次元構造点の形で新しい構造表現を学習するための簡易かつ解釈不能な手法を提案する。
論文 参考訳(メタデータ) (2020-03-03T17:40:00Z) - Total3DUnderstanding: Joint Layout, Object Pose and Mesh Reconstruction
for Indoor Scenes from a Single Image [24.99186733297264]
本研究では,単一画像から部屋レイアウト,オブジェクト境界ボックス,メッシュを共同で再構築するエンド・ツー・エンドのソリューションを提案する。
本手法は,3成分からなる粗大な階層構造を提案する。
SUN RGB-D および Pix3D データセットを用いた実験により,本手法が既存手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2020-02-27T16:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。