論文の概要: PAUL: Procrustean Autoencoder for Unsupervised Lifting
- arxiv url: http://arxiv.org/abs/2103.16773v1
- Date: Wed, 31 Mar 2021 02:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:35:54.435324
- Title: PAUL: Procrustean Autoencoder for Unsupervised Lifting
- Title(参考訳): PAUL:教師なしリフティングのためのプロクラステアオートエンコーダ
- Authors: Chaoyang Wang and Simon Lucey
- Abstract要約: 我々は、NRSfMとして明示的に使用される3Dディープオートエンコーダフレームワークを提唱する。
我々は、Deep NRSfMやC3PDOといった最近のイノベーションと比較して、数多くのベンチマークで最先端のパフォーマンスを実証する。
- 参考スコア(独自算出の注目度): 41.60389133109345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent success in casting Non-rigid Structure from Motion (NRSfM) as an
unsupervised deep learning problem has raised fundamental questions about what
novelty in NRSfM prior could the deep learning offer. In this paper we advocate
for a 3D deep auto-encoder framework to be used explicitly as the NRSfM prior.
The framework is unique as: (i) it learns the 3D auto-encoder weights solely
from 2D projected measurements, and (ii) it is Procrustean in that it jointly
resolves the unknown rigid pose for each shape instance. We refer to this
architecture as a Procustean Autoencoder for Unsupervised Lifting (PAUL), and
demonstrate state-of-the-art performance across a number of benchmarks in
comparison to recent innovations such as Deep NRSfM and C3PDO.
- Abstract(参考訳): 教師なし深層学習問題としてのnrsfm(non-rigid structure from motion)のキャスティングの成功は、nrsfmに先立つ深層学習のノベルティに関する根本的な疑問を提起している。
本稿では,従来のNRSfMとして明示的に使用される3次元ディープオートエンコーダフレームワークを提案する。
i) 2次元の投影された測定からのみ3次元の自動エンコーダの重みを学習し、(ii)各形状のインスタンスに対して未知の定型的なポーズを共同で解決するという点で、精巧である。
我々は,このアーキテクチャをPAUL(Procustean Autoencoder for Unsupervised Lifting)と呼び,Deep NRSfMやC3PDOといった最近のイノベーションと比較して,多数のベンチマークで最先端のパフォーマンスを示す。
関連論文リスト
- Weak-to-Strong 3D Object Detection with X-Ray Distillation [75.47580744933724]
本稿では,既存の任意の3Dオブジェクト検出フレームワークにシームレスに統合する多目的手法を提案する。
オブジェクト・コンプリートフレームを用いたX線蒸留は、教師付き設定と半教師付き設定の両方に適している。
提案手法は,半教師あり学習における最先端の手法を1-1.5mAPで超越する。
論文 参考訳(メタデータ) (2024-03-31T13:09:06Z) - DeCoTR: Enhancing Depth Completion with 2D and 3D Attentions [41.55908366474901]
本研究では,2次元と3次元の両方の注意を生かし,高精度な深度補完を実現する手法を提案する。
提案手法であるDeCoTRを,確立した深度補完ベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-18T19:22:55Z) - Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - Attention-Based Depth Distillation with 3D-Aware Positional Encoding for
Monocular 3D Object Detection [10.84784828447741]
ADDは、3D対応の位置符号化を備えた注意に基づく深度知識蒸留フレームワークである。
教師の設計によると、私たちのフレームワークはシームレスで、ドメインギャップフリーで、実装が容易で、オブジェクト指向の地層深度と互換性があります。
我々は,3つの代表的な単分子検出器上でのフレームワークを実装し,予測計算コストの増大を伴わず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-30T06:39:25Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Point-M2AE: Multi-scale Masked Autoencoders for Hierarchical Point Cloud
Pre-training [56.81809311892475]
Masked Autoencoders (MAE) は、言語と2次元画像変換器の自己教師付き事前学習において大きな可能性を示している。
我々は3次元点雲の階層的自己教師型学習のための強力なマルチスケールMAE事前学習フレームワークであるPoint-M2AEを提案する。
論文 参考訳(メタデータ) (2022-05-28T11:22:53Z) - Self-Supervised Point Cloud Representation Learning with Occlusion
Auto-Encoder [63.77257588569852]
本稿では,3D Occlusion Auto-Encoder(3D-OAE)を提案する。
私たちのキーとなるアイデアは、入力ポイントクラウドのローカルパッチをランダムに排除し、隠されたパッチを復元することで監督を確立することです。
従来の手法とは対照的に、我々の3D-OAEは大量のパッチを除去し、少数の可視パッチでしか予測できない。
論文 参考訳(メタデータ) (2022-03-26T14:06:29Z) - Implicit Autoencoder for Point-Cloud Self-Supervised Representation
Learning [39.521374237630766]
最もポピュラーでアクセスしやすい3D表現、すなわち点雲は、下層の連続した3D表面の離散的なサンプルを含む。
この離散化プロセスは3次元形状のサンプリングのバリエーションを導入し、真の3次元幾何学の伝達可能な知識を開発するのが困難になる。
標準的なオートエンコーディングパラダイムでは、エンコーダは3D形状だけでなく、3D形状の特定の離散サンプリングに関する情報を潜在コードにエンコードする。
これは、デコーダによって再構成された点雲が、原点と再構成された点との完全なマッピングがない限り、受け入れられないためである。
論文 参考訳(メタデータ) (2022-01-03T18:05:52Z) - Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations [42.476537776831314]
非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
論文 参考訳(メタデータ) (2020-07-21T17:29:20Z) - Deep NRSfM++: Towards Unsupervised 2D-3D Lifting in the Wild [44.78174845839193]
上記の課題に対処するために,学習に基づくNRSfM法を改善するための戦略を提案する。
当社のアプローチであるDeep NRSfM++は、多数の大規模ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-01-27T21:14:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。