論文の概要: Ultron: Enabling Temporal Geometry Compression of 3D Mesh Sequences using Temporal Correspondence and Mesh Deformation
- arxiv url: http://arxiv.org/abs/2409.05151v1
- Date: Sun, 8 Sep 2024 16:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 19:06:48.429205
- Title: Ultron: Enabling Temporal Geometry Compression of 3D Mesh Sequences using Temporal Correspondence and Mesh Deformation
- Title(参考訳): 超音波:時間対応とメッシュ変形を用いた3次元メッシュ列の時空間幾何圧縮
- Authors: Haichao Zhu,
- Abstract要約: 既存の3Dモデル圧縮手法は主に静的モデルに焦点を当てており、フレーム間情報を考慮していない。
本稿では,時間的対応とメッシュ変形を用いた任意のトポロジでメッシュ列を圧縮する方法を提案する。
- 参考スコア(独自算出の注目度): 2.0914328542137346
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the advancement of computer vision, dynamic 3D reconstruction techniques have seen significant progress and found applications in various fields. However, these techniques generate large amounts of 3D data sequences, necessitating efficient storage and transmission methods. Existing 3D model compression methods primarily focus on static models and do not consider inter-frame information, limiting their ability to reduce data size. Temporal mesh compression, which has received less attention, often requires all input meshes to have the same topology, a condition rarely met in real-world applications. This research proposes a method to compress mesh sequences with arbitrary topology using temporal correspondence and mesh deformation. The method establishes temporal correspondence between consecutive frames, applies a deformation model to transform the mesh from one frame to subsequent frames, and replaces the original meshes with deformed ones if the quality meets a tolerance threshold. Extensive experiments demonstrate that this method can achieve state-of-the-art performance in terms of compression performance. The contributions of this paper include a geometry and motion-based model for establishing temporal correspondence between meshes, a mesh quality assessment for temporal mesh sequences, an entropy-based encoding and corner table-based method for compressing mesh sequences, and extensive experiments showing the effectiveness of the proposed method. All the code will be open-sourced at https://github.com/lszhuhaichao/ultron.
- Abstract(参考訳): コンピュータビジョンの進歩により、動的3次元再構成技術は大きな進歩を遂げ、様々な分野に応用されている。
しかし、これらの技術は大量の3Dデータシーケンスを生成し、効率的なストレージと送信方法を必要とする。
既存の3Dモデル圧縮手法は主に静的モデルに焦点を当て、フレーム間情報を考慮せず、データサイズを減らす能力を制限する。
時間メッシュ圧縮は、あまり注目されていないが、すべての入力メッシュが同じトポロジを持つ必要があることが多い。
本研究では,時間的対応とメッシュ変形を用いた任意のトポロジでメッシュ列を圧縮する方法を提案する。
この方法は連続するフレーム間の時間的対応を確立し、変形モデルを適用してメッシュを一方のフレームからその後のフレームに変換し、品質が許容しきい値に達した場合、元のメッシュを変形したメッシュに置き換える。
大規模実験により, 圧縮性能の観点から, この手法が最先端の性能を達成できることが実証された。
本論文は,メッシュ間の時間的対応を確立する幾何学的・運動的モデル,時間的メッシュ列のメッシュ品質評価,エントロピーに基づく符号化とコーナーテーブルに基づくメッシュ列の圧縮手法,提案手法の有効性を示す広範な実験を含む。
すべてのコードはhttps://github.com/lszhuhaichao/ultron.comでオープンソース化される。
関連論文リスト
- Textured 3D Regenerative Morphing with 3D Diffusion Prior [29.7508625572437]
テクスチャ化された3Dモーフィングは、2つの3Dオブジェクト間の滑らかで可塑性なシーケンスを生成する。
従来は点対点対応の確立と滑らかな変形軌跡の決定に頼っていた。
本稿では,3次元拡散を用いた3次元再生型モーフィング法を提案する。
論文 参考訳(メタデータ) (2025-02-20T07:02:22Z) - MeshXL: Neural Coordinate Field for Generative 3D Foundation Models [51.1972329762843]
本稿では,現代の大規模言語モデルを用いた3次元メッシュ生成のプロセスに対処する,事前学習型自己回帰モデルの生成ファミリを提案する。
MeshXLは高品質な3Dメッシュを生成することができ、さまざまなダウンストリームアプリケーションの基盤モデルとしても機能する。
論文 参考訳(メタデータ) (2024-05-31T14:35:35Z) - Deep Spectral Meshes: Multi-Frequency Facial Mesh Processing with Graph
Neural Networks [1.170907599257096]
メッシュ変形を低周波・高周波変形に分解する手法として,スペクトルメッシュを導入した。
提案フレームワーク上に3次元顔メッシュ合成のためのパラメトリックモデルを構築した。
このモデルでは、異なる周波数レベルを異なる、より適切な表現で表現することで、スペクトル分割をさらに活用する。
論文 参考訳(メタデータ) (2024-02-15T23:17:08Z) - SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder and Transformer Network [1.4732811715354455]
SpATr(Spiral Auto-Encoder and Transformer Network)と呼ばれる3次元動作認識のための新しいアプローチを提案する。
スパイラル畳み込みに基づく軽量オートエンコーダを用いて,各3次元メッシュから空間幾何学的特徴を抽出する。
提案手法は,Babel,MoVi,BMLrubの3つの顕著な3次元行動データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Deep Deformation Detail Synthesis for Thin Shell Models [47.442883859643004]
物理ベースの布アニメーションでは、高価な計算リソースと巨大な労働調整のコストで豊富な折り畳みと詳細なしわが達成されます。
我々は,低分解能メッシュから詳細なメッシュへのマッピングを学ぶために,時間的および空間的に整合可能な変形表現(ts-acap)と変形変換ネットワークを開発した。
提案手法は, 物理シミュレーションより1035倍高速で, 既存の手法よりも高精度な合成能力を有する, 様々なフレームレートで, 信頼性の高いリアルなアニメーションを作成できる。
論文 参考訳(メタデータ) (2021-02-23T08:09:11Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z) - A Real-time Action Representation with Temporal Encoding and Deep
Compression [115.3739774920845]
動作表現のための時間畳み込み3Dネットワーク(T-C3D)と呼ばれる新しいリアルタイム畳み込みアーキテクチャを提案する。
T-C3Dは、高プロセス速度を得ながら、階層的な多粒度でビデオアクション表現を学習する。
提案手法は,5MB未満のストレージモデルを用いて,提案手法の精度5.4%,推論速度2倍の高速化を実現した。
論文 参考訳(メタデータ) (2020-06-17T06:30:43Z) - Dense Non-Rigid Structure from Motion: A Manifold Viewpoint [162.88686222340962]
Non-Rigid Structure-from-Motion (NRSfM) 問題は、複数のフレームにまたがる2次元特徴対応から変形物体の3次元形状を復元することを目的としている。
提案手法は,ノイズに対する精度,スケーラビリティ,堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2020-06-15T09:15:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。