論文の概要: Tensorformer: Normalized Matrix Attention Transformer for High-quality
Point Cloud Reconstruction
- arxiv url: http://arxiv.org/abs/2306.15989v1
- Date: Wed, 28 Jun 2023 07:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-29 15:15:17.766604
- Title: Tensorformer: Normalized Matrix Attention Transformer for High-quality
Point Cloud Reconstruction
- Title(参考訳): テンソルフォーマ:高品質点雲再構成のための正規化マトリックスアテンショントランス
- Authors: Hui Tian, Zheng Qin, Renjiao Yi, Chenyang Zhu, Kai Xu
- Abstract要約: 高品質な再構成を行うための新しい正規化行列アテンショントランス(Tensorformer)を提案する。
提案手法は,ShapeNetCoreとABCの2つの一般的なデータセットの最先端化を実現し,ShapeNet上でのIOUの4%の改善を実現している。
- 参考スコア(独自算出の注目度): 33.895640616203934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surface reconstruction from raw point clouds has been studied for decades in
the computer graphics community, which is highly demanded by modeling and
rendering applications nowadays. Classic solutions, such as Poisson surface
reconstruction, require point normals as extra input to perform reasonable
results. Modern transformer-based methods can work without normals, while the
results are less fine-grained due to limited encoding performance in local
fusion from discrete points. We introduce a novel normalized matrix attention
transformer (Tensorformer) to perform high-quality reconstruction. The proposed
matrix attention allows for simultaneous point-wise and channel-wise message
passing, while the previous vector attention loses neighbor point information
across different channels. It brings more degree of freedom in feature learning
and thus facilitates better modeling of local geometries. Our method achieves
state-of-the-art on two commonly used datasets, ShapeNetCore and ABC, and
attains 4% improvements on IOU on ShapeNet. Our implementation will be released
upon acceptance.
- Abstract(参考訳): 生のポイントクラウドからの表面復元は、コンピュータグラフィックスコミュニティで何十年も研究されてきた。
ポアソン曲面再構成のような古典的な解は、合理的な結果を得るために余分な入力として点正規化を必要とする。
現代の変圧器に基づく手法は正規化なしでは機能するが、離散点からの局所融合における符号化性能の制限により、結果はより微細化されていない。
高品質な再構成を行うための新しい正規化行列アテンショントランス(Tensorformer)を提案する。
提案した行列アテンションにより、同時にポイントワイドとチャネルワイドのメッセージパッシングが可能となり、一方、以前のベクトルアテンションは異なるチャネル間で隣接するポイント情報を失う。
これにより、機能学習の自由度が高まり、ローカルジオメトリのモデリングが容易になる。
提案手法は,ShapeNetCoreとABCの2つの一般的なデータセットの最先端化を実現し,ShapeNet上のIOUを4%改善する。
私たちの実装は受け入れ次第リリースします。
関連論文リスト
- Segmenting objects with Bayesian fusion of active contour models and convnet priors [0.729597981661727]
本稿では,自然資源モニタリング(NRM)画像を対象とした新しい事例分割手法を提案する。
我々は、個々の物体の輪郭を学習する際に、形状、位置、位置の先行を組み込むベイズ最大値後部推論として問題を定式化する。
実験では、個々の枯木樹冠と正確な輪郭を分割する、挑戦的で現実的な問題に取り組む。
論文 参考訳(メタデータ) (2024-10-09T20:36:43Z) - Fast Point Cloud Geometry Compression with Context-based Residual Coding and INR-based Refinement [19.575833741231953]
我々は、KNN法を用いて、原表面点の近傍を決定する。
条件付き確率モデルは局所幾何学に適応し、大きな速度減少をもたらす。
暗黙のニューラル表現を精製層に組み込むことで、デコーダは任意の密度で下面の点をサンプリングすることができる。
論文 参考訳(メタデータ) (2024-08-06T05:24:06Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - SIGMA:Sinkhorn-Guided Masked Video Modeling [69.31715194419091]
SIGMA (Sinkhorn-guided Masked Video Modelling) は、新しいビデオ事前学習法である。
時空管の特徴を,限られた数の学習可能なクラスタに均等に分散する。
10個のデータセットによる実験結果から,より高性能で時間的,堅牢な映像表現を学習する上で,SIGMAの有効性が検証された。
論文 参考訳(メタデータ) (2024-07-22T08:04:09Z) - ConDaFormer: Disassembled Transformer with Local Structure Enhancement
for 3D Point Cloud Understanding [105.98609765389895]
トランスフォーマーは、最近3Dポイントクラウド理解のために研究されている。
0.1万を超える多数のポイントは、ポイントクラウドデータに対してグローバルな自己注意を可能にする。
本稿では,ConDaFormerという新しい変圧器ブロックを開発する。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - DiGS : Divergence guided shape implicit neural representation for
unoriented point clouds [36.60407995156801]
形状暗黙的神経表現(INR)は近年,形状解析や再構成作業に有効であることが示されている。
本稿では,通常のベクトルを入力として必要としない分岐ガイド型形状表現学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-21T02:10:03Z) - Meshing Point Clouds with Predicted Intrinsic-Extrinsic Ratio Guidance [30.863194319818223]
既存のポイントへの接続情報のみを付加することで、インプットポイントクラウドを可能な限り活用することを提案する。
私たちの重要なイノベーションはローカル接続のサロゲートであり、本質的/外生的メトリクスを比較して計算します。
提案手法は, 詳細を保存できるだけでなく, あいまいな構造を扱えるだけでなく, 目に見えないカテゴリに対して強い一般化性を持つことを示す。
論文 参考訳(メタデータ) (2020-07-17T22:36:00Z) - Point2Mesh: A Self-Prior for Deformable Meshes [83.31236364265403]
本稿では,入力点雲から表面メッシュを再構築する技術であるPoint2Meshを紹介する。
自己優先型は、ディープニューラルネットワークの重み内の単一の形状から幾何的繰り返しをカプセル化する。
ここでは,Point2Meshが所望の解に収束することを示す。
論文 参考訳(メタデータ) (2020-05-22T10:01:04Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。