論文の概要: Neural Geometric Parser for Single Image Camera Calibration
- arxiv url: http://arxiv.org/abs/2007.11855v2
- Date: Fri, 24 Jul 2020 02:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:03:48.221729
- Title: Neural Geometric Parser for Single Image Camera Calibration
- Title(参考訳): 単一画像カメラキャリブレーションのためのニューラル幾何学的パーサ
- Authors: Jinwoo Lee and Minhyuk Sung and Hyunjoon Lee and Junho Kim
- Abstract要約: そこで本研究では,人為的なシーンに対して,ニューラルネットワークによる一眼レフカメラキャリブレーションを提案する。
提案手法は意味的手法と幾何学的手法の両方を考慮し,精度を著しく向上させる。
実験の結果,既存の最先端カメラキャリブレーション技術に比べて,ニューラルネットワークの性能は著しく高いことがわかった。
- 参考スコア(独自算出の注目度): 17.393543270903653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a neural geometric parser learning single image camera calibration
for man-made scenes. Unlike previous neural approaches that rely only on
semantic cues obtained from neural networks, our approach considers both
semantic and geometric cues, resulting in significant accuracy improvement. The
proposed framework consists of two networks. Using line segments of an image as
geometric cues, the first network estimates the zenith vanishing point and
generates several candidates consisting of the camera rotation and focal
length. The second network evaluates each candidate based on the given image
and the geometric cues, where prior knowledge of man-made scenes is used for
the evaluation. With the supervision of datasets consisting of the horizontal
line and focal length of the images, our networks can be trained to estimate
the same camera parameters. Based on the Manhattan world assumption, we can
further estimate the camera rotation and focal length in a weakly supervised
manner. The experimental results reveal that the performance of our neural
approach is significantly higher than that of existing state-of-the-art camera
calibration techniques for single images of indoor and outdoor scenes.
- Abstract(参考訳): 本研究では,人工シーンの単一カメラキャリブレーションを学習するニューラルジオメトリ解析器を提案する。
ニューラルネットワークから得られる意味的手がかりのみに依存する従来のニューラルネットワークアプローチとは異なり、我々のアプローチは意味的手がかりと幾何学的手がかりの両方を考慮し、精度が大幅に向上する。
提案するフレームワークは2つのネットワークで構成されている。
画像の線分を幾何学的手がかりとして、第1のネットワークは、ゼニスの消失点を推定し、カメラ回転と焦点長からなる複数の候補を生成する。
第2のネットワークは、与えられた画像と幾何学的手がかりに基づいて各候補を評価し、その評価に人工シーンの事前知識を用いる。
画像の水平線と焦点距離からなるデータセットの監督により、我々のネットワークは、同じカメラパラメータを推定するように訓練することができる。
マンハッタンの世界の仮定に基づいて、カメラの回転と焦点距離を弱教師付きで推定することができる。
実験の結果, 室内および屋外の単一画像に対して, 既存の最先端カメラキャリブレーション技術よりも, 神経アプローチの性能が有意に高いことがわかった。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Inverting the Imaging Process by Learning an Implicit Camera Model [73.81635386829846]
本稿では,ディープニューラルネットワークとしてのカメラの物理画像処理を表現した,新しい暗黙カメラモデルを提案する。
本稿では,この暗黙カメラモデルが2つの逆撮像タスクに与える影響を実演する。
論文 参考訳(メタデータ) (2023-04-25T11:55:03Z) - Multi-task Learning for Camera Calibration [3.274290296343038]
一対の画像から内在性(主点オフセットと焦点長)と外因性(ベースライン,ピッチ,翻訳)を予測できるユニークな手法を提案する。
カメラモデルニューラルネットワークを用いて3Dポイントを再構成し、再構成の損失を利用してカメラ仕様を得ることにより、この革新的なカメラ投影損失(CPL)法により、所望のパラメータを推定できる。
論文 参考訳(メタデータ) (2022-11-22T17:39:31Z) - Fusing Convolutional Neural Network and Geometric Constraint for
Image-based Indoor Localization [4.071875179293035]
本稿では,カメラ/ロボットを明示的にローカライズする画像ベースローカライズフレームワークを提案する。
カメラは、観察された1つまたは少数の画像を使用してローカライズされ、6自由度なポーズラベルを持つ訓練画像を使用する。
シミュレーションと実データを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-05T02:04:41Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Back to the Feature: Learning Robust Camera Localization from Pixels to
Pose [114.89389528198738]
画像と3Dモデルから正確な6-DoFのポーズを推定するシーンに依存しないニューラルネットワークPixLocを導入する。
このシステムは、粗いポーズ前の大きな環境でもローカライズできるが、スパース特徴マッチングの精度も向上する。
論文 参考訳(メタデータ) (2021-03-16T17:40:12Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - 3D Scene Geometry-Aware Constraint for Camera Localization with Deep
Learning [11.599633757222406]
近年、畳み込みニューラルネットワークに基づくエンドツーエンドのアプローチは、従来の3次元幾何学に基づく手法を達成または超えるように研究されている。
本研究では,絶対カメラポーズ回帰のためのコンパクトネットワークを提案する。
これらの従来の手法から着想を得た3Dシーンの幾何学的制約も、動き、深さ、画像の内容を含むすべての利用可能な情報を活用することによって導入される。
論文 参考訳(メタデータ) (2020-05-13T04:15:14Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z) - On Localizing a Camera from a Single Image [9.049593493956008]
カメラが撮影した1枚の画像からカメラの位置を推定できることを示す。
人間の作業者による投影幾何学,ニューラルネットワーク,クラウドソースアノテーションの法的な組み合わせを用いて,テストデータセット内の画像の95%を12m以内の位置に配置できることを示す。
論文 参考訳(メタデータ) (2020-03-24T05:09:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。