論文の概要: Capture and Interact: Rapid 3D Object Acquisition and Rendering with Gaussian Splatting in Unity
- arxiv url: http://arxiv.org/abs/2510.06802v1
- Date: Wed, 08 Oct 2025 09:31:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.388414
- Title: Capture and Interact: Rapid 3D Object Acquisition and Rendering with Gaussian Splatting in Unity
- Title(参考訳): キャプチャとインタラクション: 高速な3Dオブジェクトの取得と一貫したガウススプラッティングによるレンダリング
- Authors: Islomjon Shukhratov, Sergey Gorinsky,
- Abstract要約: 本稿では,現実世界のオブジェクトの高速な取得とインタラクティブレンダリングを可能にするエンドツーエンドパイプラインを提案する。
スマートフォンのビデオでオブジェクトをスキャンし、自動3D再構成のためにアップロードし、Unityで対話的に視覚化する。
このシステムは、リアルタイムテレプレゼンスをサポートするために、モバイルキャプチャ、クラウドベースの3D GS、Unityレンダリングを統合している。
- 参考スコア(独自算出の注目度): 0.8548100130679614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing and rendering three-dimensional (3D) objects in real time remain a significant challenge, yet hold substantial potential for applications in augmented reality, digital twin systems, remote collaboration and prototyping. We present an end-to-end pipeline that leverages 3D Gaussian Splatting (3D GS) to enable rapid acquisition and interactive rendering of real-world objects using a mobile device, cloud processing and a local computer. Users scan an object with a smartphone video, upload it for automated 3D reconstruction, and visualize it interactively in Unity at an average of 150 frames per second (fps) on a laptop. The system integrates mobile capture, cloud-based 3D GS and Unity rendering to support real-time telepresence. Our experiments show that the pipeline processes scans in approximately 10 minutes on a graphics processing unit (GPU) achieving real-time rendering on the laptop.
- Abstract(参考訳): 三次元(3D)オブジェクトをリアルタイムでキャプチャしてレンダリングすることは大きな課題だが、拡張現実、デジタルツインシステム、リモートコラボレーション、プロトタイピングなどの応用には大きな可能性を秘めている。
本稿では,モバイルデバイス,クラウド処理,ローカルコンピュータを用いた実世界のオブジェクトの高速な取得とインタラクティブレンダリングを実現するために,3Dガウス・スプレイティング(3D GS)を利用したエンドツーエンドパイプラインを提案する。
ユーザーはスマートフォンのビデオでオブジェクトをスキャンし、自動3D再構成のためにアップロードし、ノートパソコン上で平均150フレーム/秒(fps)でUnityでインタラクティブに視覚化する。
このシステムは、リアルタイムテレプレゼンスをサポートするために、モバイルキャプチャ、クラウドベースの3D GS、Unityレンダリングを統合している。
実験の結果,パイプラインプロセスはグラフィックス処理ユニット(GPU)上で約10分で,ラップトップ上でのリアルタイムレンダリングを実現していることがわかった。
関連論文リスト
- Drag4D: Align Your Motion with Text-Driven 3D Scene Generation [77.79131321983677]
Drag4Dはインタラクティブなフレームワークで、テキスト駆動の3Dシーン生成にオブジェクトの動き制御を統合する。
このフレームワークにより、ユーザーは単一の画像から生成された3Dオブジェクトに対して3Dトラジェクトリを定義し、それらを高品質な3D背景にシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-09-26T05:23:45Z) - Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-Distillation [87.91642226587294]
現在の学習に基づく3D再構成手法は、キャプチャーされた実世界のマルチビューデータに頼っている。
本稿では,ビデオ拡散モデルにおける暗黙的な3次元知識を,明示的な3次元ガウススプラッティング(3DGS)表現に蒸留する自己蒸留フレームワークを提案する。
本フレームワークは静的・動的3次元シーン生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-23T17:58:01Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。