論文の概要: DMesh++: An Efficient Differentiable Mesh for Complex Shapes
- arxiv url: http://arxiv.org/abs/2412.16776v1
- Date: Sat, 21 Dec 2024 21:16:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:52:23.862484
- Title: DMesh++: An Efficient Differentiable Mesh for Complex Shapes
- Title(参考訳): DMesh++: 複雑な形状のための効率的な微分可能なメッシュ
- Authors: Sanghyun Son, Matheus Gadelha, Yang Zhou, Matthew Fisher, Zexiang Xu, Yi-Ling Qiao, Ming C. Lin, Yi Zhou,
- Abstract要約: 2次元および3次元に新しい微分可能なメッシュ処理法を導入する。
メッシュ分解能を2次元の局所幾何学に適応させて効率よく表現するアルゴリズムを提案する。
本研究では,2次元ポイントクラウドと3次元マルチビュー再構成タスクにおけるアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 51.75054400014161
- License:
- Abstract: Recent probabilistic methods for 3D triangular meshes capture diverse shapes by differentiable mesh connectivity, but face high computational costs with increased shape details. We introduce a new differentiable mesh processing method in 2D and 3D that addresses this challenge and efficiently handles meshes with intricate structures. Additionally, we present an algorithm that adapts the mesh resolution to local geometry in 2D for efficient representation. We demonstrate the effectiveness of our approach on 2D point cloud and 3D multi-view reconstruction tasks. Visit our project page (https://sonsang.github.io/dmesh2-project) for source code and supplementary material.
- Abstract(参考訳): 最近の3次元三角形メッシュの確率的手法は、異なるメッシュ接続によって様々な形状をキャプチャするが、形状の細部を増大させて高い計算コストに直面している。
この課題に対処し、複雑な構造を持つメッシュを効率的に処理する、2Dおよび3Dの新しい微分可能なメッシュ処理手法を提案する。
さらに,メッシュ分解能を2次元の局所幾何学に適応させて効率よく表現するアルゴリズムを提案する。
本研究では,2次元ポイントクラウドと3次元マルチビュー再構成タスクにおけるアプローチの有効性を実証する。
ソースコードと補足資料のプロジェクトページ(https://sonsang.github.io/dmesh2-project)を参照してください。
関連論文リスト
- Occupancy-Based Dual Contouring [12.944046673902415]
本稿では,2重畳み込み方式を提案する。
本手法は,GPU並列化を最大化するために,学習不要かつ慎重に設計されている。
論文 参考訳(メタデータ) (2024-09-20T11:32:21Z) - DMesh: A Differentiable Mesh Representation [40.800084296073415]
DMeshは一般的な3次元三角形メッシュの微分可能表現である。
まず、重み付きデラウネー三角測量(WDT)に基づいて、領域をコンパクトにテセルレートする凸四面体(convex tetrahedra)の集合を得る。
我々は、WDTに基づいて、実際の表面に存在する顔の確率を微分可能な方法で定式化する。
論文 参考訳(メタデータ) (2024-04-20T18:52:51Z) - Joint-MAE: 2D-3D Joint Masked Autoencoders for 3D Point Cloud
Pre-training [65.75399500494343]
Masked Autoencoders (MAE) は、2Dおよび3Dコンピュータビジョンのための自己教師型学習において有望な性能を示した。
自己監督型3次元点雲事前学習のための2D-3DジョイントMAEフレームワークであるJoint-MAEを提案する。
論文 参考訳(メタデータ) (2023-02-27T17:56:18Z) - Laplacian2Mesh: Laplacian-Based Mesh Understanding [4.808061174740482]
我々は3次元トライアングルメッシュのための新しいフレキシブル畳み込みニューラルネットワーク(CNN)モデルであるLaplacian2Meshを紹介した。
メッシュプーリングはラプラシアンの多空間変換によりネットワークの受容場を拡張するために適用される。
3Dメッシュに適用されたさまざまな学習タスクの実験は、Laplacian2Meshの有効性と効率を実証している。
論文 参考訳(メタデータ) (2022-02-01T10:10:13Z) - Multi-initialization Optimization Network for Accurate 3D Human Pose and
Shape Estimation [75.44912541912252]
我々はMulti-Initialization Optimization Network(MION)という3段階のフレームワークを提案する。
第1段階では,入力サンプルの2次元キーポイントに適合する粗い3次元再構成候補を戦略的に選択する。
第2段階では, メッシュ改質トランス (MRT) を設計し, 自己保持機構を用いて粗い再構成結果をそれぞれ洗練する。
最後に,RGB画像の視覚的証拠が与えられた3次元再構成と一致するかどうかを評価することで,複数の候補から最高の結果を得るために,一貫性推定ネットワーク(CEN)を提案する。
論文 参考訳(メタデータ) (2021-12-24T02:43:58Z) - Mesh Convolution with Continuous Filters for 3D Surface Parsing [101.25796935464648]
本稿では、3次元トライアングルメッシュから効果的な幾何学的特徴学習のための一連のモジュラー演算を提案する。
メッシュ畳み込みは球面調和を正規直交基底として利用し、連続畳み込みフィルタを生成する。
さらに,PicassoNet++という3次元表面の知覚解析のための新しい階層型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-12-03T09:16:49Z) - Subdivision-Based Mesh Convolution Networks [38.09613983540932]
畳み込みニューラルネットワーク(CNN)は、2Dコンピュータビジョンにおいて大きなブレークスルーをもたらした。
本稿では,ループ分割シーケンス接続を伴う3次元トライアングルメッシュのための新しいCNNフレームワークSubdivNetを提案する。
メッシュ分類,セグメンテーション,対応,実世界からの検索実験により,SubdivNetの有効性と有効性を示す。
論文 参考訳(メタデータ) (2021-06-04T06:50:34Z) - Improved Modeling of 3D Shapes with Multi-view Depth Maps [48.8309897766904]
CNNを用いて3次元形状をモデル化するための汎用フレームワークを提案する。
オブジェクトの1つの深度画像だけで、3Dオブジェクトの高密度な多視点深度マップ表現を出力できる。
論文 参考訳(メタデータ) (2020-09-07T17:58:27Z) - Implicit Functions in Feature Space for 3D Shape Reconstruction and
Completion [53.885984328273686]
Implicit Feature Networks (IF-Nets) は連続的な出力を提供し、複数のトポロジを扱える。
IF-NetsはShapeNetにおける3次元オブジェクト再構成における先行作業よりも明らかに優れており、より正確な3次元人間の再構成が得られる。
論文 参考訳(メタデータ) (2020-03-03T11:14:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。