論文の概要: View Generalization for Single Image Textured 3D Models
- arxiv url: http://arxiv.org/abs/2106.06533v1
- Date: Thu, 10 Jun 2021 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:35:56.800437
- Title: View Generalization for Single Image Textured 3D Models
- Title(参考訳): 単一画像テクスチャ3次元モデルのビュー一般化
- Authors: Anand Bhattad, Aysegul Dundar, Guilin Liu, Andrew Tao, Bryan Catanzaro
- Abstract要約: このトレードオフを管理するために幾何学的剛性を容易に制御できるモデルのクラスについて述べる。
本稿では、ビューの一般化を改善するサイクル整合性損失について述べる。
本手法を最先端の手法と比較し,質的および定量的な改善点を示す。
- 参考スコア(独自算出の注目度): 25.30291141596039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can easily infer the underlying 3D geometry and texture of an object
only from a single 2D image. Current computer vision methods can do this, too,
but suffer from view generalization problems - the models inferred tend to make
poor predictions of appearance in novel views. As for generalization problems
in machine learning, the difficulty is balancing single-view accuracy (cf.
training error; bias) with novel view accuracy (cf. test error; variance). We
describe a class of models whose geometric rigidity is easily controlled to
manage this tradeoff. We describe a cycle consistency loss that improves view
generalization (roughly, a model from a generated view should predict the
original view well). View generalization of textures requires that models share
texture information, so a car seen from the back still has headlights because
other cars have headlights. We describe a cycle consistency loss that
encourages model textures to be aligned, so as to encourage sharing. We compare
our method against the state-of-the-art method and show both qualitative and
quantitative improvements.
- Abstract(参考訳): 人間は、単一の2d画像からのみ対象の3d形状とテクスチャを推定することができる。
現在のコンピュータビジョン手法もこれを行うことができるが、ビューの一般化の問題に悩まされている。
機械学習における一般化問題に関しては、単一ビュー精度(cf)のバランスが難しい。
トレーニングエラー(バイアス)は,新しい視点精度(cf。
テストエラー; 分散)。
このトレードオフを管理するために幾何学的剛性を容易に制御できるモデルのクラスについて述べる。
我々は、ビューの一般化を改善するサイクル一貫性の損失について説明する(概して、生成されたビューからのモデルが元のビューをうまく予測すべきである)。
テクスチャを一般化するには、モデルがテクスチャ情報を共有する必要があるため、後部から見た車にはヘッドライトがある。
モデルテクスチャの整合を促進するサイクル一貫性の損失を,共有を促進するために記述する。
本手法を最先端手法と比較し,質的および定量的な改善点を示す。
関連論文リスト
- Zero-to-Hero: Enhancing Zero-Shot Novel View Synthesis via Attention Map Filtering [16.382098950820822]
我々は、注目マップを操作することでビュー合成を強化する新しいテストタイムアプローチであるZero-to-Heroを提案する。
我々は、ソースビューからの情報を統合するために自己認識機構を変更し、形状歪みを低減する。
結果は、分散オブジェクトの多様なセットで検証された、忠実性と一貫性の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-05-29T00:58:22Z) - DreamSparse: Escaping from Plato's Cave with 2D Frozen Diffusion Model
Given Sparse Views [20.685453627120832]
既存の手法では、品質の高い結果を生成するのに苦労したり、オブジェクトごとの最適化が必要な場合が少なくない。
DreamSparseは、オブジェクトレベルの画像とシーンレベルの画像の両方に対して高品質なノベルビューを合成することができる。
論文 参考訳(メタデータ) (2023-06-06T05:26:26Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - Multiview Compressive Coding for 3D Reconstruction [77.95706553743626]
単一オブジェクトの3Dポイントやシーン全体で動作するシンプルなフレームワークを紹介します。
我々のモデルであるMultiview Compressive Codingは、入力の外観と形状を圧縮して3次元構造を予測する。
論文 参考訳(メタデータ) (2023-01-19T18:59:52Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - Using Adaptive Gradient for Texture Learning in Single-View 3D
Reconstruction [0.0]
3次元モデル再構築のための学習ベースのアプローチは、現代の応用によって注目を集めている。
本稿では,サンプリング画像のばらつきに基づいて予測座標の勾配を最適化し,新しいサンプリングアルゴリズムを提案する。
また,frechetインセプション距離(fid)を用いて学習における損失関数を形成し,レンダリング画像と入力画像とのギャップを橋渡しする。
論文 参考訳(メタデータ) (2021-04-29T07:52:54Z) - Geometry-Free View Synthesis: Transformers and no 3D Priors [16.86600007830682]
トランスフォーマーモデルでは,手作業による3次元バイアスを伴わずに全く新しいビューを合成できることを示す。
i)ソースビューとターゲットビューの長距離3D対応を暗黙的に学習するグローバルアテンションメカニズムによって実現される。
論文 参考訳(メタデータ) (2021-04-15T17:58:05Z) - Learning Complete 3D Morphable Face Models from Images and Videos [88.34033810328201]
本稿では,画像やビデオから顔形状,アルベド,表現の完全な3次元モデルを学ぶための最初のアプローチを提案する。
既存の手法よりも,学習モデルの方がより一般化し,高品質な画像ベース再構築につながることを示す。
論文 参考訳(メタデータ) (2020-10-04T20:51:23Z) - AUTO3D: Novel view synthesis through unsupervisely learned variational
viewpoint and global 3D representation [27.163052958878776]
本稿では,ポーズ・インスペクションを伴わない単一の2次元画像から学習に基づく新規ビュー・シンセサイザーを目標とする。
本研究では,学習済みの相対的目的/回転と暗黙的グローバルな3次元表現を両立させるために,エンドツーエンドの訓練可能な条件変分フレームワークを構築した。
本システムでは,3次元再構成を明示的に行うことなく,暗黙的に3次元理解を行うことができる。
論文 参考訳(メタデータ) (2020-07-13T18:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。