論文の概要: LightSAL: Lightweight Sign Agnostic Learning for Implicit Surface
Representation
- arxiv url: http://arxiv.org/abs/2103.14273v1
- Date: Fri, 26 Mar 2021 05:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 12:43:46.819892
- Title: LightSAL: Lightweight Sign Agnostic Learning for Implicit Surface
Representation
- Title(参考訳): LightSAL: 入射表面表現のための軽量手話学習
- Authors: Abol Basher, Muhammad Sarmad, Jani Boutellier
- Abstract要約: 本研究では3次元形状を学習するための新しい深層畳み込みアーキテクチャであるLightSALを提案する。
実験は、人間の形状を41kの3DスキャンしたD-Faustデータセットに基づいている。
- 参考スコア(独自算出の注目度): 5.1135133995376085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, several works have addressed modeling of 3D shapes using deep
neural networks to learn implicit surface representations. Up to now, the
majority of works have concentrated on reconstruction quality, paying little or
no attention to model size or training time. This work proposes LightSAL, a
novel deep convolutional architecture for learning 3D shapes; the proposed work
concentrates on efficiency both in network training time and resulting model
size. We build on the recent concept of Sign Agnostic Learning for training the
proposed network, relying on signed distance fields, with unsigned distance as
ground truth. In the experimental section of the paper, we demonstrate that the
proposed architecture outperforms previous work in model size and number of
required training iterations, while achieving equivalent accuracy. Experiments
are based on the D-Faust dataset that contains 41k 3D scans of human shapes.
The proposed model has been implemented in PyTorch.
- Abstract(参考訳): 近年、深層ニューラルネットワークを用いた3次元形状のモデリングに取り組み、暗黙的な表面表現を学習している。
これまで、作品の大部分は復元の質に集中しており、モデルのサイズやトレーニング時間にほとんど注意を払っていない。
本研究は,ネットワークトレーニング時間とモデルサイズの両方における効率性を重視した,新しい3次元形状学習のための深層畳み込みアーキテクチャであるlightsalを提案する。
提案するネットワークをトレーニングするための手話学習の概念を,符号付き距離場に頼り,符号なし距離を根拠として構築する。
本論文の実験部では,提案するアーキテクチャが,モデルサイズと必要なトレーニングイテレーション数において,同等の精度を保ちながら,これまでの作業よりも優れていることを実証する。
実験は、人間の形状を41kの3DスキャンしたD-Faustデータセットに基づいている。
提案されたモデルはPyTorchで実装されている。
関連論文リスト
- Self Supervised Networks for Learning Latent Space Representations of Human Body Scans and Motions [6.165163123577484]
本稿では,3次元人体解析・処理の分野におけるいくつかの基本的な問題に対処するために,自己教師型ニューラルネットワークモデルを提案する。
身体形状とポーズの潜在空間表現を検索するための新しいアーキテクチャであるVariShaPEを提案する。
第二に、潜時空間の幾何学を学習するフレームワークであるMoGeNで潜時符号の推定を補完する。
論文 参考訳(メタデータ) (2024-11-05T19:59:40Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - SurFit: Learning to Fit Surfaces Improves Few Shot Learning on Point
Clouds [48.61222927399794]
SurFitは3次元形状分割ネットワークのラベルを効率的に学習するための単純な手法である。
3次元形状の表面を幾何学的プリミティブに分解する自己指導型タスクに基づいている。
論文 参考訳(メタデータ) (2021-12-27T23:55:36Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Learning Compositional Shape Priors for Few-Shot 3D Reconstruction [36.40776735291117]
複雑なエンコーダ・デコーダアーキテクチャが,カテゴリごとの大量のデータを利用することを示す。
データから直接クラス固有のグローバルな形状を学習する3つの方法を提案する。
人気のShapeNetデータセットの実験から,本手法はゼロショットベースラインを40%以上上回る性能を示した。
論文 参考訳(メタデータ) (2021-06-11T14:55:49Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Towards General Purpose Geometry-Preserving Single-View Depth Estimation [1.9573380763700712]
単視点深度推定(SVDE)は、ARアプリケーション、3Dモデリング、ロボット工学におけるシーン理解において重要な役割を果たす。
近年の研究では、成功するソリューションはトレーニングデータの多様性とボリュームに強く依存していることが示されている。
我々の研究は、従来のデータセットとともに、このデータに基づいてトレーニングされたモデルが、正確なシーン形状を予測しながら精度を向上できることを示している。
論文 参考訳(メタデータ) (2020-09-25T20:06:13Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z) - Shape Prior Deformation for Categorical 6D Object Pose and Size
Estimation [62.618227434286]
RGB-D画像から見えないオブジェクトの6Dポーズとサイズを復元する新しい学習手法を提案する。
本研究では,事前学習したカテゴリ形状からの変形を明示的にモデル化することにより,3次元オブジェクトモデルを再構築するディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-07-16T16:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。