論文の概要: Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations
- arxiv url: http://arxiv.org/abs/2007.10961v1
- Date: Tue, 21 Jul 2020 17:29:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:05:44.667340
- Title: Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations
- Title(参考訳): Procrustean Regression Networks:2次元アノテーションによる非リジッド物体の3次元構造学習
- Authors: Sungheon Park, Minsik Lee, Nojun Kwak
- Abstract要約: 非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
- 参考スコア(独自算出の注目度): 42.476537776831314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel framework for training neural networks which is capable of
learning 3D information of non-rigid objects when only 2D annotations are
available as ground truths. Recently, there have been some approaches that
incorporate the problem setting of non-rigid structure-from-motion (NRSfM) into
deep learning to learn 3D structure reconstruction. The most important
difficulty of NRSfM is to estimate both the rotation and deformation at the
same time, and previous works handle this by regressing both of them. In this
paper, we resolve this difficulty by proposing a loss function wherein the
suitable rotation is automatically determined. Trained with the cost function
consisting of the reprojection error and the low-rank term of aligned shapes,
the network learns the 3D structures of such objects as human skeletons and
faces during the training, whereas the testing is done in a single-frame basis.
The proposed method can handle inputs with missing entries and experimental
results validate that the proposed framework shows superior reconstruction
performance to the state-of-the-art method on the Human 3.6M, 300-VW, and
SURREAL datasets, even though the underlying network structure is very simple.
- Abstract(参考訳): 本研究では,2次元アノテーションのみを基底真実として利用できる場合に,非剛体物体の3次元情報を学習できるニューラルネットワークのトレーニングフレームワークを提案する。
近年,NRSfM(non-rigid structure-from-motion)の問題設定を深層学習に組み込んで3次元構造再構成を学習する手法が提案されている。
NRSfMの最も重要な難しさは、同時に回転と変形の両方を推定することであり、以前の作業では両者を回帰させることでこれを処理した。
本稿では,適切な回転が自動的に決定される損失関数を提案することで,この困難を解消する。
ネットワークは、再投射誤差と整列形状の低ランク項からなるコスト関数で訓練され、トレーニング中に人間の骨格や顔などの物体の3D構造を学習する一方、テストは単フレームベースで行われる。
提案手法は,ネットワーク構造が極めて単純であるにもかかわらず,提案手法がHuman 3.6M, 300-VW, SURREALデータセットの再現性能に優れていたことを示す。
関連論文リスト
- FILP-3D: Enhancing 3D Few-shot Class-incremental Learning with
Pre-trained Vision-Language Models [62.663113296987085]
クラス増分学習(class-incremental learning)は、モデルが限られたデータに基づいて漸進的にトレーニングされている場合、破滅的な忘れの問題を軽減することを目的としている。
冗長特徴除去器(RFE)と空間ノイズ補償器(SNC)の2つの新しいコンポーネントを紹介する。
既存の3次元データセットの不均衡を考慮し、3次元FSCILモデルのより微妙な評価を提供する新しい評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-28T14:52:07Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Enforcing connectivity of 3D linear structures using their 2D
projections [54.0598511446694]
本稿では,2次元投影におけるトポロジ認識損失の総和を最小化することにより,結果の3次元接続性を改善することを提案する。
これにより、精度の向上と、アノテーション付きトレーニングデータの提供に必要なアノテーションの労力の削減が図られる。
論文 参考訳(メタデータ) (2022-07-14T11:42:18Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Next-best-view Regression using a 3D Convolutional Neural Network [0.9449650062296823]
本論文では,次のベストビュー問題に対するデータ駆動アプローチを提案する。
提案手法は、次のベストビューのbtxtpositionを抑えるために、以前の再構成で3D畳み込みニューラルネットワークを訓練する。
提案手法を2つの実験グループを用いて検証した。
論文 参考訳(メタデータ) (2021-01-23T01:50:26Z) - SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static
Images [44.78174845839193]
近年の取り組みは、注釈付き2DシルエットによるRGB画像から3Dの監督なしに3Dの再構築を学ぶことに変わった。
これらのテクニックは、トレーニング中に同じオブジェクトインスタンスのマルチビューアノテーションを必要とする。
本研究では,SDF-SRNを提案する。
論文 参考訳(メタデータ) (2020-10-20T17:59:47Z) - Neural Descent for Visual 3D Human Pose and Shape [67.01050349629053]
入力RGB画像から3次元のポーズと形状を復元するディープニューラルネットワーク手法を提案する。
我々は最近導入された表現力のあるボディ統計モデルGHUMに頼っている。
我々の方法論の中心は、HUmanNeural Descent (HUND)と呼ばれるアプローチの学習と最適化である。
論文 参考訳(メタデータ) (2020-08-16T13:38:41Z) - Few-Shot Single-View 3-D Object Reconstruction with Compositional Priors [30.262308825799167]
複雑なエンコーダ・デコーダアーキテクチャは、標準ベンチマークにおいて、最寄りのベースラインと同様に動作することを示す。
本稿では,3次元再構成モデルに事前クラスを効率的に統合する3つの手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T04:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。