論文の概要: Tame a Wild Camera: In-the-Wild Monocular Camera Calibration
- arxiv url: http://arxiv.org/abs/2306.10988v2
- Date: Wed, 22 Nov 2023 19:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 04:07:13.209669
- Title: Tame a Wild Camera: In-the-Wild Monocular Camera Calibration
- Title(参考訳): 野生のカメラを為す:野生のモノクロカメラのキャリブレーション
- Authors: Shengjie Zhu, Abhinav Kumar, Masa Hu and Xiaoming Liu
- Abstract要約: 以前のモノクロカメラのキャリブレーション法は、特定の3Dオブジェクトやそれ以前の強力な幾何学に依存していた。
提案手法は仮定フリーであり,Def(Degree-of-Freedom)固有のパラメータを4ドル(約4,400円)で校正する。
画像操作検出と復元,2次元ポーズ推定,3次元センシングにおける下流の応用を実証する。
- 参考スコア(独自算出の注目度): 12.55056916519563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D sensing for monocular in-the-wild images, e.g., depth estimation and 3D
object detection, has become increasingly important. However, the unknown
intrinsic parameter hinders their development and deployment. Previous methods
for the monocular camera calibration rely on specific 3D objects or strong
geometry prior, such as using a checkerboard or imposing a Manhattan World
assumption. This work solves the problem from the other perspective by
exploiting the monocular 3D prior. Our method is assumption-free and calibrates
the complete $4$ Degree-of-Freedom (DoF) intrinsic parameters. First, we
demonstrate intrinsic is solved from two well-studied monocular priors, i.e.,
monocular depthmap, and surface normal map. However, this solution imposes a
low-bias and low-variance requirement for depth estimation. Alternatively, we
introduce a novel monocular 3D prior, the incidence field, defined as the
incidence rays between points in 3D space and pixels in the 2D imaging plane.
The incidence field is a pixel-wise parametrization of the intrinsic invariant
to image cropping and resizing. With the estimated incidence field, a robust
RANSAC algorithm recovers intrinsic. We demonstrate the effectiveness of our
method by showing superior performance on synthetic and zero-shot testing
datasets. Beyond calibration, we demonstrate downstream applications in image
manipulation detection & restoration, uncalibrated two-view pose estimation,
and 3D sensing. Codes, models, and data will be held in
https://github.com/ShngJZ/WildCamera.
- Abstract(参考訳): 例えば、深度推定や3次元物体検出といった単眼画像の3Dセンシングの重要性が高まっている。
しかし、未知の固有のパラメータは、開発とデプロイメントを妨げる。
単眼カメラのキャリブレーションの以前の方法は、チェッカーボードの使用やマンハッタンワールドの仮定の強制など、特定の3dオブジェクトや強い幾何学に先立って依存していた。
この研究は、モノクル3Dを前もって利用することで、問題を他の視点から解決する。
提案手法は仮定自由であり,dof(dof)内在パラメータを4ドルに満たしている。
まず,本質的解は2つのよく研究された単眼前駆体,すなわち単眼深度マップと表面正規写像から解くことを実証する。
しかし、この解は深さ推定の低バイアスかつ低分散要求を課す。
あるいは、3次元空間の点と2次元イメージング平面の画素の間の入射光として定義される新しい単分子3D前兆、入射場を導入する。
入射場は、画像のトリミングと再サイズに固有の不変量の画素単位のパラメトリゼーションである。
推定推定入射場により、ロバストなRANSACアルゴリズムが本質的に回復する。
合成およびゼロショットテストデータセットにおいて優れた性能を示すことにより,本手法の有効性を示す。
キャリブレーション以外にも,画像操作検出と復元,アンキャリブド2視点ポーズ推定,および3次元センシングにおける下流の応用例を示す。
コード、モデル、データはhttps://github.com/shngjz/wildcameraに保持される。
関連論文リスト
- Zolly: Zoom Focal Length Correctly for Perspective-Distorted Human Mesh
Reconstruction [66.10717041384625]
Zollyは、視点歪みの画像に焦点を当てた最初の3DHMR法である。
人体の2次元密度ゆらぎスケールを記述した新しいカメラモデルと新しい2次元歪み画像を提案する。
このタスク用に調整された2つの現実世界のデータセットを拡張します。
論文 参考訳(メタデータ) (2023-03-24T04:22:41Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Ray3D: ray-based 3D human pose estimation for monocular absolute 3D
localization [3.5379706873065917]
キャリブレーションカメラを用いた一眼レフ3D(Ray3D)絶対姿勢推定法を提案する。
我々の手法は既存の最先端モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2022-03-22T05:42:31Z) - Probabilistic and Geometric Depth: Detecting Objects in Perspective [78.00922683083776]
3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
論文 参考訳(メタデータ) (2021-07-29T16:30:33Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Probabilistic Monocular 3D Human Pose Estimation with Normalizing Flows [24.0966076588569]
本稿では,不明瞭な逆2D-to-3D問題を解くために,決定論的3D-to-2Dマッピングを利用する正規化フローベース手法を提案する。
我々は、Human3.6MとMPI-INF-3DHPの2つのベンチマークデータセットに対するアプローチを評価し、ほとんどの指標において同等の手法を上回りました。
論文 参考訳(メタデータ) (2021-07-29T07:33:14Z) - Neighbor-Vote: Improving Monocular 3D Object Detection through Neighbor
Distance Voting [12.611269919468999]
本稿では、隣接する予測を組み込んで、高度に変形した擬似LiDAR点雲からの物体検出を改善する方法を提案する。
鳥の視線検出の成績は,特に難易度検出において,最先端の視線検出よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2021-07-06T09:18:33Z) - Gated3D: Monocular 3D Object Detection From Temporal Illumination Cues [28.806932489163888]
低コストな単分子ゲート型画像処理装置から時間的照度を利用した新しい3次元物体検出法を提案する。
提案手法は,1万km以上の運転データから得られたゲート画像を含む新しい3次元検出データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-06T16:06:51Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。