論文の概要: On the generalization of learning-based 3D reconstruction
- arxiv url: http://arxiv.org/abs/2006.15427v1
- Date: Sat, 27 Jun 2020 18:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:59:01.335291
- Title: On the generalization of learning-based 3D reconstruction
- Title(参考訳): 学習に基づく3次元再構築の一般化について
- Authors: Miguel Angel Bautista, Walter Talbott, Shuangfei Zhai, Nitish
Srivastava, Joshua M Susskind
- Abstract要約: 学習に基づく3次元再構成手法の一般化に影響を及ぼすモデルアーキテクチャで符号化された帰納バイアスについて検討する。
3つの帰納バイアスは,エンコーダの空間的範囲,シーンの基本的な形状を用いて点特徴を記述し,複数のビューから情報を集約する機構,といった性能に影響を及ぼすことがわかった。
- 参考スコア(独自算出の注目度): 10.516860541554632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art learning-based monocular 3D reconstruction methods learn
priors over object categories on the training set, and as a result struggle to
achieve reasonable generalization to object categories unseen during training.
In this paper we study the inductive biases encoded in the model architecture
that impact the generalization of learning-based 3D reconstruction methods. We
find that 3 inductive biases impact performance: the spatial extent of the
encoder, the use of the underlying geometry of the scene to describe point
features, and the mechanism to aggregate information from multiple views.
Additionally, we propose mechanisms to enforce those inductive biases: a point
representation that is aware of camera position, and a variance cost to
aggregate information across views. Our model achieves state-of-the-art results
on the standard ShapeNet 3D reconstruction benchmark in various settings.
- Abstract(参考訳): 最先端学習に基づく単眼的3次元再構成手法は,トレーニングセット上の対象カテゴリを優先して学習し,訓練中に認識できない対象カテゴリへの合理的な一般化を達成するのに苦戦する。
本稿では,学習に基づく3次元再構成手法の一般化に影響を及ぼすモデルアーキテクチャにおける帰納バイアスについて検討する。
3つの帰納バイアスは,エンコーダの空間的範囲,シーンの基本的な形状を用いて点特徴を記述し,複数のビューから情報を集約する機構,といった性能に影響を及ぼす。
さらに,カメラの位置を意識したポイント表現と,ビュー間で情報を集約するための分散コストという,これらの帰納的バイアスを強制するメカニズムを提案する。
本モデルは,shapenet 3dリコンストラクションベンチマークにおいて,様々な設定で最新の結果を得る。
関連論文リスト
- Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Pre-train, Self-train, Distill: A simple recipe for Supersizing 3D
Reconstruction [47.38670633513938]
我々は、数百のセマンティックカテゴリからオブジェクトの単一ビュー3D再構成のための統一モデルを学ぶ。
我々の研究は、一般的なカテゴリの3D学習のための分割画像収集に依存している。
論文 参考訳(メタデータ) (2022-04-07T17:59:25Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z) - Few-Shot Single-View 3-D Object Reconstruction with Compositional Priors [30.262308825799167]
複雑なエンコーダ・デコーダアーキテクチャは、標準ベンチマークにおいて、最寄りのベースラインと同様に動作することを示す。
本稿では,3次元再構成モデルに事前クラスを効率的に統合する3つの手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T04:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。