論文の概要: Critical configurations for three projective views
- arxiv url: http://arxiv.org/abs/2112.05478v1
- Date: Fri, 10 Dec 2021 12:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 15:23:17.559055
- Title: Critical configurations for three projective views
- Title(参考訳): 3つの射影ビューに対する臨界構成
- Authors: Martin Br{\aa}telund
- Abstract要約: 3台のプロジェクティブカメラの臨界構成について検討する。
すべての臨界構成は二次曲面の交叉上にあり、どの交叉が臨界構成を構成するかを正確に分類する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of structure from motion is concerned with recovering the
3-dimensional structure of an object from a set of 2-dimensional images.
Generally, all information can be uniquely recovered if enough images and image
points are provided, yet there are certain cases where unique recovery is
impossible; these are called critical configurations. In this paper we use an
algebraic approach to study the critical configurations for three projective
cameras. We show that all critical configurations lie on the intersection of
quadric surfaces, and classify exactly which intersections constitute a
critical configuration.
- Abstract(参考訳): 運動からの構造の問題とは、物体の3次元構造を2次元画像の集合から復元することである。
一般的に、十分な画像とイメージポイントが提供されると、すべての情報が一意に復元できるが、ユニークなリカバリが不可能なケースもある。
本稿では、3つの射影カメラの臨界構成を研究するために代数的手法を用いる。
すべての臨界構成は二次曲面の交叉上にあり、どの交叉が臨界配置を構成するかを正確に分類する。
関連論文リスト
- KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - A Classification of Critical Configurations for any Number of Projective
Views [0.0]
我々は最近開発されたアプローチを用いて、射影カメラの全ての重要な構成を分類する。
二次曲面や次数曲線などのよく知られた代数多様体を少なくとも4で成すことを示す。
本稿は、これまで未知のクリティカルな構成を見つけ、それ以前に批判的と考えられていた構成が実際はそうではないことを示すことで、初期の結果を改善する。
論文 参考訳(メタデータ) (2024-01-07T11:11:03Z) - LIST: Learning Implicitly from Spatial Transformers for Single-View 3D
Reconstruction [5.107705550575662]
Listは、局所的およびグローバルな画像特徴を活用して、単一の画像から3Dオブジェクトの幾何学的および位相的構造を再構築する、新しいニューラルネットワークである。
合成画像と実世界の画像から3Dオブジェクトを再構成する際のモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-07-23T01:01:27Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - TC-SfM: Robust Track-Community-Based Structure-from-Motion [24.956499348500763]
本研究では,現場における高次情報,すなわち地域空間の文脈情報を活用することで,復興を導くことを提案する。
新たな構造、すなわち、各コミュニティがトラックのグループで構成され、シーン内の局所的なセグメントを表現する、テキストトラックコミュニティが提案されている。
論文 参考訳(メタデータ) (2022-06-13T01:09:12Z) - Critical configurations for two projective views, a new approach [0.0]
すべての臨界構成が二次曲面上に存在することを示し、どの二次が臨界構成を構成するかを正確に分類する。
また, ユニークな再建が不可能な場合の異なる復元との関係についても述べる。
論文 参考訳(メタデータ) (2021-12-09T17:58:50Z) - Multi-view 3D Reconstruction of a Texture-less Smooth Surface of Unknown
Generic Reflectance [86.05191217004415]
表面反射率の不明なテクスチャレス物体の多視点再構成は難しい課題である。
本稿では,コライトスキャナーをベースとした,この問題に対するシンプルで堅牢な解法を提案する。
論文 参考訳(メタデータ) (2021-05-25T01:28:54Z) - UCLID-Net: Single View Reconstruction in Object Space [60.046383053211215]
三次元潜在空間を保存する幾何学的空間の構築は,オブジェクト座標空間における大域的形状規則性と局所的推論を同時に学習する上で有効であることを示す。
ベンチマーク目的でよく使用されるShapeNet合成画像と、我々のアプローチが最先端の画像より優れている実世界の画像の両方を実証する。
論文 参考訳(メタデータ) (2020-06-06T09:15:56Z) - Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure
Reconstruction from an RGB Video [90.93141123721713]
ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T10:39:20Z) - Self-supervised Single-view 3D Reconstruction via Semantic Consistency [142.71430568330172]
対象物の形状, テクスチャ, カメラポーズを予測できる, 自己監督型, 単視点3D再構成モデルを学習する。
提案手法では,手動で注釈付けしたキーポイント,オブジェクトのマルチビューイメージ,あるいは事前の3Dテンプレートなど,3Dの監督を必要としない。
論文 参考訳(メタデータ) (2020-03-13T20:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。