論文の概要: Adjoint Rigid Transform Network: Self-supervised Alignment of 3D Shapes
- arxiv url: http://arxiv.org/abs/2102.01161v1
- Date: Mon, 1 Feb 2021 20:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:50:56.667444
- Title: Adjoint Rigid Transform Network: Self-supervised Alignment of 3D Shapes
- Title(参考訳): 随伴剛体変換ネットワーク:3次元形状の自己監督アライメント
- Authors: Keyang Zhou, Bharat Lal Bhatnagar, Bernt Schiele, Gerard Pons-Moll
- Abstract要約: Adjoint Rigid Transform (ART) Networkは既存の3Dネットワークと統合できる。
ARTは入力の形状を多くのタスクに欠かせない標準方向に回転させることを学ぶ。
ARTは自己超越のみにより、剛体と非剛体の両方に対して独自の正準方向を発見できる。
- 参考スコア(独自算出の注目度): 115.27813548718873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most learning methods for 3D data (point clouds, meshes) suffer significant
performance drops when the data is not carefully aligned to a canonical
orientation. Aligning real world 3D data collected from different sources is
non-trivial and requires manual intervention. In this paper, we propose the
Adjoint Rigid Transform (ART) Network, a neural module which can be integrated
with existing 3D networks to significantly boost their performance in tasks
such as shape reconstruction, non-rigid registration, and latent
disentanglement. ART learns to rotate input shapes to a canonical orientation
that is crucial for a lot of tasks. ART achieves this by imposing rotation
equivariance constraint on input shapes. The remarkable result is that with
only self-supervision, ART can discover a unique canonical orientation for both
rigid and nonrigid objects, which leads to a notable boost in downstream task
performance. We will release our code and pre-trained models for further
research.
- Abstract(参考訳): 3Dデータ(ポイントクラウド、メッシュ)のほとんどの学習方法は、データが正常な向きに慎重に整列されていない場合に、大幅なパフォーマンス低下を被る。
異なるソースから収集された現実世界の3Dデータをアライメントすることは簡単ではなく、手動の介入が必要です。
本論文では,既存の3Dネットワークと統合して,形状の再構築,非剛体登録,潜在非絡み合いなどのタスクにおける性能を大幅に向上させるニューラルネットワークであるAdjoint Rigid Transform (ART) Networkを提案する。
ARTは、多くのタスクに不可欠な正準方向への入力形状の回転を学習します。
artは入力形状に回転同分散制約を課すことでこれを達成する。
注目すべき結果は、自己スーパービジョンだけで、artは剛体オブジェクトと非剛体オブジェクトの両方のユニークな標準指向を見つけることができ、下流のタスクパフォーマンスが著しく向上する。
さらなる研究のために、コードと事前トレーニングモデルをリリースします。
関連論文リスト
- Weakly Supervised Monocular 3D Object Detection using Multi-View
Projection and Direction Consistency [78.76508318592552]
モノクロ3Dオブジェクト検出は、その容易なアプリケーションのための自動駆動において、主流のアプローチとなっている。
現在のほとんどの方法は、トレーニングフェーズで使用される真実をラベル付けするために、まだ3Dポイントのクラウドデータに依存しています。
画像にマークされた2次元ラベルだけでモデルを訓練できる,弱教師付きモノクル3次元オブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2023-03-15T15:14:00Z) - AutoSDF: Shape Priors for 3D Completion, Reconstruction and Generation [29.018733252938926]
パワフルな事前処理によって、不十分な情報で推論を実行できます。
本稿では, 形状完了, 復元, 生成といったマルチモーダルな3次元課題を解決するために, 3次元形状に対する自己回帰前処理を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:59:54Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Lifting 2D Object Locations to 3D by Discounting LiDAR Outliers across
Objects and Views [70.1586005070678]
本稿では,2次元マスクオブジェクトの予測と生のLiDAR点雲を自動的に3次元境界ボックスに変換するシステムを提案する。
これらの手法は, より複雑なパイプラインや3Dモデル, 付加的な人為的な事前情報ソースを使用するにもかかわらず, 従来よりもはるかに優れていた。
論文 参考訳(メタデータ) (2021-09-16T13:01:13Z) - Procrustean Regression Networks: Learning 3D Structure of Non-Rigid
Objects from 2D Annotations [42.476537776831314]
非剛体物体の3次元情報を学習できるニューラルネットワークの学習フレームワークを提案する。
提案手法は,Human 3.6M,300-VW,SURREALデータセット上での最先端手法よりも優れた再構成性能を示す。
論文 参考訳(メタデータ) (2020-07-21T17:29:20Z) - Info3D: Representation Learning on 3D Objects using Mutual Information
Maximization and Contrastive Learning [8.448611728105513]
本稿では,3次元形状に関するInfoMaxと対照的な学習原理を拡張することを提案する。
我々は3Dオブジェクトとその「チャンク」間の相互情報を最大化して、整列したデータセットにおける表現を改善することができることを示す。
論文 参考訳(メタデータ) (2020-06-04T00:30:26Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。