論文の概要: Temporally-Coherent Surface Reconstruction via Metric-Consistent Atlases
- arxiv url: http://arxiv.org/abs/2104.06950v1
- Date: Wed, 14 Apr 2021 16:21:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:14:24.462151
- Title: Temporally-Coherent Surface Reconstruction via Metric-Consistent Atlases
- Title(参考訳): Metric-Consistent Atlasによる表面の時間的コヒーレント再構築
- Authors: Jan Bednarik, Vladimir G. Kim, Siddhartha Chaudhuri, Shaifali
Parashar, Mathieu Salzmann, Pascal Fua, Noam Aigerman
- Abstract要約: 再建された表面をニューラルネットワークを用いてアトラスとして表現する。
本手法は,教師なし対応の精度と表面再構成の精度において,その性能を超える結果が得られることを実証的に示す。
- 参考スコア(独自算出の注目度): 131.50372468579067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for the unsupervised reconstruction of a
temporally-coherent sequence of surfaces from a sequence of time-evolving point
clouds, yielding dense, semantically meaningful correspondences between all
keyframes. We represent the reconstructed surface as an atlas, using a neural
network. Using canonical correspondences defined via the atlas, we encourage
the reconstruction to be as isometric as possible across frames, leading to
semantically-meaningful reconstruction. Through experiments and comparisons, we
empirically show that our method achieves results that exceed that state of the
art in the accuracy of unsupervised correspondences and accuracy of surface
reconstruction.
- Abstract(参考訳): 本研究では,時間進化する点雲の列から時間的コヒーレントな面列を復元し,すべてのキーフレーム間の密接な意味的対応を導出する手法を提案する。
再建された表面をニューラルネットワークを用いてアトラスとして表現する。
atlasで定義された正準対応を用いることで、フレーム間で可能な限り等尺性を持たせることを奨励し、意味論的に意味的な再構築に繋がる。
実験と比較により,非教師なし対応の精度と表面再構成の精度において,本手法が技術水準を超える結果が得られることを実証的に示す。
関連論文リスト
- Hybrid-CSR: Coupling Explicit and Implicit Shape Representation for
Cortical Surface Reconstruction [28.31844964164312]
Hybrid-CSRは、皮質表面再構成のための明示的および暗黙的な形状表現を組み合わせた幾何学的深層学習モデルである。
本手法は, 明示的(指向性点雲)と暗黙的(指標関数)の皮質表面再構成を統一する。
論文 参考訳(メタデータ) (2023-07-23T11:32:14Z) - Forward and Inverse Approximation Theory for Linear Temporal
Convolutional Networks [20.9427668489352]
我々は近似率推定(ジャクソン型結果)と逆近似定理(ベルンシュタイン型結果)を証明する。
我々は、時間的畳み込みアーキテクチャによって効率的に捕捉できるシーケンシャルな関係のタイプを包括的に評価する。
論文 参考訳(メタデータ) (2023-05-29T11:08:04Z) - Entangled Residual Mappings [59.02488598557491]
残余接続の構造を一般化するために、絡み合った残余写像を導入する。
絡み合い残余写像は、アイデンティティスキップ接続を特別な絡み合い写像に置き換える。
絡み合った写像は、様々な深層モデルにまたがる特徴の反復的洗練を保ちながら、畳み込みネットワークにおける表現学習プロセスに影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-06-02T19:36:03Z) - Point Scene Understanding via Disentangled Instance Mesh Reconstruction [21.92736190195887]
本稿では,効率的なポイントシーン理解のために,aDisentangled Instance Mesh Reconstruction (DIMR) フレームワークを提案する。
セグメント化ベースのバックボーンは、偽陽性オブジェクトの提案を減らすために適用される。
メッシュを意識した潜在コード空間を活用して、シェイプコンプリートとメッシュ生成のプロセスを切り離します。
論文 参考訳(メタデータ) (2022-03-31T06:36:07Z) - Temporally-Consistent Surface Reconstruction using Metrically-Consistent
Atlases [131.50372468579067]
そこで本稿では,時間変化点雲列から時間一貫性のある面列を復元する手法を提案する。
我々は、再構成された表面をニューラルネットワークによって計算されたアトラスとして表現し、フレーム間の対応性を確立することができる。
当社のアプローチは、いくつかの挑戦的なデータセットにおいて、最先端のものよりも優れています。
論文 参考訳(メタデータ) (2021-11-12T17:48:25Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Better Patch Stitching for Parametric Surface Reconstruction [100.55842629739574]
ローカルマッピングのグローバルな一貫性を明示的に促進するアプローチを導入する。
第一項は表面の正規性を利用しており、個々の写像内および全体にわたって推定された場合、局所的に一貫した状態を保つことを要求する。
第2項はさらに、新しい縫合誤差を最小化することにより、マッピングの空間構成を改善する。
論文 参考訳(メタデータ) (2020-10-14T12:37:57Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Deep Manifold Prior [37.725563645899584]
本稿では,3次元形状の表面などの多様体構造データに先行する手法を提案する。
この方法で生成された曲面は滑らかであり、ガウス過程を特徴とする制限的な挙動を示し、完全連結および畳み込みネットワークに対して数学的にそのような特性を導出する。
論文 参考訳(メタデータ) (2020-04-08T20:47:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。