論文の概要: TopoGaussian: Inferring Internal Topology Structures from Visual Clues
- arxiv url: http://arxiv.org/abs/2503.12343v1
- Date: Sun, 16 Mar 2025 03:47:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:31:12.875599
- Title: TopoGaussian: Inferring Internal Topology Structures from Visual Clues
- Title(参考訳): TopoGaussian: 内部トポロジー構造を視覚圏から推定する
- Authors: Xiaoyu Xiong, Changyu Hu, Chunru Lin, Pingchuan Ma, Chuang Gan, Tao Du,
- Abstract要約: TopoGaussianは、不透明な物体の内部構造を、簡単にアクセス可能な写真やビデオからインプットとして推定するための、全体論的、粒子ベースのパイプラインである。
従来のメッシュ方式と比較して,パイプラインの速度は平均5.26倍に向上し,形状品質が向上した。
これらの結果は、3Dビジョン、ソフトロボティクス、製造アプリケーションにおけるパイプラインの可能性を強調します。
- 参考スコア(独自算出の注目度): 47.87619082650727
- License:
- Abstract: We present TopoGaussian, a holistic, particle-based pipeline for inferring the interior structure of an opaque object from easily accessible photos and videos as input. Traditional mesh-based approaches require tedious and error-prone mesh filling and fixing process, while typically output rough boundary surface. Our pipeline combines Gaussian Splatting with a novel, versatile particle-based differentiable simulator that simultaneously accommodates constitutive model, actuator, and collision, without interference with mesh. Based on the gradients from this simulator, we provide flexible choice of topology representation for optimization, including particle, neural implicit surface, and quadratic surface. The resultant pipeline takes easily accessible photos and videos as input and outputs the topology that matches the physical characteristics of the input. We demonstrate the efficacy of our pipeline on a synthetic dataset and four real-world tasks with 3D-printed prototypes. Compared with existing mesh-based method, our pipeline is 5.26x faster on average with improved shape quality. These results highlight the potential of our pipeline in 3D vision, soft robotics, and manufacturing applications.
- Abstract(参考訳): TopoGaussianは、不透明な物体の内部構造を、簡単にアクセス可能な写真やビデオからインプットとして推定するための、全体論的、粒子ベースのパイプラインである。
従来のメッシュベースのアプローチでは、退屈でエラーを起こしやすいメッシュフィリングと修正プロセスが必要ですが、通常は粗い境界面を出力します。
我々のパイプラインは、メッシュに干渉することなく構成モデル、アクチュエータ、衝突を同時に許容する新しい多目的粒子ベース微分シミュレータとガウススプラッティングを組み合わせる。
このシミュレータからの勾配に基づいて、粒子、暗黙曲面、二次曲面を含む最適化のための位相表現の柔軟な選択を提供する。
結果として得られるパイプラインは、簡単にアクセス可能な写真やビデオを入力として取り出し、入力の物理的特性と一致するトポロジーを出力する。
合成データセットと3Dプリントプロトタイプを用いた実世界の4つのタスクに対して,パイプラインの有効性を実証した。
従来のメッシュ方式と比較して,パイプラインの速度は平均5.26倍,形状品質は向上した。
これらの結果は、3Dビジョン、ソフトロボティクス、製造アプリケーションにおけるパイプラインの可能性を強調します。
関連論文リスト
- Tetrahedron Splatting for 3D Generation [39.24591650300784]
Tetrahedron Splatting (TeT-Splatting) は最適化時の容易な収束、正確なメッシュ抽出、リアルタイムレンダリングをサポートする。
メッシュ抽出なしで表現をトレーニングできるため、最適化プロセスの収束が容易になります。
論文 参考訳(メタデータ) (2024-06-03T17:56:36Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - NeuManifold: Neural Watertight Manifold Reconstruction with Efficient and High-Quality Rendering Support [43.5015470997138]
マルチビュー入力画像から高品質な水密多様体メッシュを生成する手法を提案する。
提案手法は両世界の利点を組み合わせ, ニューラルネットワークから得られる幾何学と, よりコンパクトな神経テクスチャ表現を最適化する。
論文 参考訳(メタデータ) (2023-05-26T17:59:21Z) - Neural Volumetric Mesh Generator [40.224769507878904]
新規かつ高品質なボリュームメッシュを生成することができるニューラルボリュームメッシュジェネレータ(NVMG)を提案する。
我々のパイプラインは、ランダムノイズや参照画像から、後処理なしで高品質なアーチファクトフリーのボリュームとサーフェスメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:46:51Z) - Leveraging Deepfakes to Close the Domain Gap between Real and Synthetic
Images in Facial Capture Pipelines [8.366597450893456]
我々は、パーソナライズされたアプリ内ビデオデータから3次元顔モデルを構築し、追跡するためのエンドツーエンドパイプラインを提案する。
本稿では,従来のコンピュータグラフィックスパイプラインにおける衝突アルゴリズムに典型的な階層的クラスタリングフレームワークに基づく自動データキュレーションと検索手法を提案する。
我々は、前述の技術を活用して、現実の地上真実データの必要性を回避するために、モーションキャプチャ回帰器のトレーニング方法を概説する。
論文 参考訳(メタデータ) (2022-04-22T15:09:49Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - HyperFlow: Representing 3D Objects as Surfaces [19.980044265074298]
本稿では,ハイパーネットを利用した新しい生成モデルを提案する。
我々は、競合するアプローチよりも質的な結果が得られる連続的なメッシュベースのオブジェクト表現を得る。
論文 参考訳(メタデータ) (2020-06-15T19:18:02Z) - Transferable Active Grasping and Real Embodied Dataset [48.887567134129306]
ハンドマウント型RGB-Dカメラを用いて把握可能な視点を探索する方法を示す。
現実的な3段階の移動可能な能動把握パイプラインを開発し、未確認のクラッタシーンに適応する。
本研究のパイプラインでは,カテゴリ非関連行動の把握と確保において,スパース報酬問題を克服するために,新しいマスク誘導報酬を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。