論文の概要: Deep Permutation Equivariant Structure from Motion
- arxiv url: http://arxiv.org/abs/2104.06703v1
- Date: Wed, 14 Apr 2021 08:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:31:16.910865
- Title: Deep Permutation Equivariant Structure from Motion
- Title(参考訳): 運動からの深い置換同変構造
- Authors: Dror Moran, Hodaya Koslowsky, Yoni Kasten, Haggai Maron, Meirav Galun,
Ronen Basri
- Abstract要約: 既存のディープメソッドはステレオおよびマルチビューステレオ設定で高精度な3D再構成を生成する。
監視されていない再投影損失を最小限に抑え、カメラパラメータとシーン構造の両方を回復するニューラルネットワークアーキテクチャを提案する。
本手法は,内部校正と非校正設定の両方において,様々なデータセット上で実験を行い,従来の手法と同等の姿勢と構造を正確に復元することを示す。
- 参考スコア(独自算出の注目度): 38.68492294795315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing deep methods produce highly accurate 3D reconstructions in stereo
and multiview stereo settings, i.e., when cameras are both internally and
externally calibrated. Nevertheless, the challenge of simultaneous recovery of
camera poses and 3D scene structure in multiview settings with deep networks is
still outstanding. Inspired by projective factorization for Structure from
Motion (SFM) and by deep matrix completion techniques, we propose a neural
network architecture that, given a set of point tracks in multiple images of a
static scene, recovers both the camera parameters and a (sparse) scene
structure by minimizing an unsupervised reprojection loss. Our network
architecture is designed to respect the structure of the problem: the sought
output is equivariant to permutations of both cameras and scene points.
Notably, our method does not require initialization of camera parameters or 3D
point locations. We test our architecture in two setups: (1) single scene
reconstruction and (2) learning from multiple scenes. Our experiments,
conducted on a variety of datasets in both internally calibrated and
uncalibrated settings, indicate that our method accurately recovers pose and
structure, on par with classical state of the art methods. Additionally, we
show that a pre-trained network can be used to reconstruct novel scenes using
inexpensive fine-tuning with no loss of accuracy.
- Abstract(参考訳): 既存のディープメソッドは、ステレオとマルチビューのステレオ設定、すなわちカメラの内部と外部のキャリブレーションの両方において、高精度な3d再構成を生成する。
それにもかかわらず、ディープネットワークを用いたマルチビュー設定におけるカメラポーズと3dシーン構造の同時リカバリの課題はいまだに未解決である。
本研究では, 静的シーンの複数の画像に一組の点線を配置し, 教師なし再投影損失を最小限に抑えて, カメラパラメータと(スパース)シーン構造の両方を復元するニューラルネットワークアーキテクチャを提案する。
我々のネットワークアーキテクチャは問題の構造を尊重するように設計されており、要求される出力はカメラとシーンポイントの両方の置換に同値である。
特に,カメラパラメータや3Dポイント位置の初期化は不要である。
1)単一シーン再構築と(2)複数のシーンからの学習の2つのセットアップでアーキテクチャをテストする。
本手法は,内部校正と非校正設定の両方において,様々なデータセット上で実験を行い,従来の手法と同等の姿勢と構造を正確に復元することを示す。
さらに,事前学習ネットワークを用いて,安価で高精度な微調整を行なわずに新しいシーンを再構築できることを示す。
関連論文リスト
- DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - Visual Geometry Grounded Deep Structure From Motion [20.203320509695306]
本稿では,各コンポーネントが完全に微分可能で,エンドツーエンドでトレーニング可能な,新しいディープパイプラインVGGSfMを提案する。
まず, 深部2次元点追跡の最近の進歩をベースとして, 画素精度の高いトラックを抽出し, ペアマッチングのチェーン化の必要性を解消する。
私たちは、CO3D、IMC Phototourism、ETH3Dという3つの一般的なデータセットで最先端のパフォーマンスを達成しました。
論文 参考訳(メタデータ) (2023-12-07T18:59:52Z) - R3D3: Dense 3D Reconstruction of Dynamic Scenes from Multiple Cameras [106.52409577316389]
R3D3は高密度3次元再構成とエゴモーション推定のためのマルチカメラシステムである。
提案手法は,複数のカメラからの時空間情報と単眼深度補正を利用する。
この設計により、困難で動的な屋外環境の密集した一貫した3次元再構成が可能になる。
論文 参考訳(メタデータ) (2023-08-28T17:13:49Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Shakes on a Plane: Unsupervised Depth Estimation from Unstabilized
Photography [54.36608424943729]
2秒で取得した12メガピクセルのRAWフレームの「長バースト」では,自然手震動のみからの視差情報で高品質のシーン深度を回復できることが示されている。
我々は、長時間バーストデータにニューラルRGB-D表現を適合させるテスト時間最適化手法を考案し、シーン深度とカメラモーションを同時に推定する。
論文 参考訳(メタデータ) (2022-12-22T18:54:34Z) - Towards Non-Line-of-Sight Photography [48.491977359971855]
非視線イメージング(NLOS)は、隠された物体からの多重バウンス間接反射を捉えることに基づいている。
アクティブなNLOSイメージングシステムは、シーンを通しての光の飛行時間の捕捉に依存している。
我々はNLOS写真と呼ばれる新しい問題定式化を提案し、この欠陥に特に対処する。
論文 参考訳(メタデータ) (2021-09-16T08:07:13Z) - Reconstructing Small 3D Objects in front of a Textured Background [0.0]
テクスチャ化された背景の前を移動する小さな物体の完全な3次元再構成手法を提案する。
これは運動から多体構造の特定のバリエーションであり、2つの物体のみに特化している。
実物を用いた実験では, 両面から3次元オブジェクトを再構成する際に, 現実的な利点があることが示されている。
論文 参考訳(メタデータ) (2021-05-24T15:36:33Z) - Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure
Reconstruction from an RGB Video [90.93141123721713]
ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
論文 参考訳(メタデータ) (2020-05-07T10:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。