論文の概要: Capture and Interact: Rapid 3D Object Acquisition and Rendering with Gaussian Splatting in Unity
- arxiv url: http://arxiv.org/abs/2510.06802v1
- Date: Wed, 08 Oct 2025 09:31:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.388414
- Title: Capture and Interact: Rapid 3D Object Acquisition and Rendering with Gaussian Splatting in Unity
- Title(参考訳): キャプチャとインタラクション: 高速な3Dオブジェクトの取得と一貫したガウススプラッティングによるレンダリング
- Authors: Islomjon Shukhratov, Sergey Gorinsky,
- Abstract要約: 本稿では,現実世界のオブジェクトの高速な取得とインタラクティブレンダリングを可能にするエンドツーエンドパイプラインを提案する。
スマートフォンのビデオでオブジェクトをスキャンし、自動3D再構成のためにアップロードし、Unityで対話的に視覚化する。
このシステムは、リアルタイムテレプレゼンスをサポートするために、モバイルキャプチャ、クラウドベースの3D GS、Unityレンダリングを統合している。
- 参考スコア(独自算出の注目度): 0.8548100130679614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing and rendering three-dimensional (3D) objects in real time remain a significant challenge, yet hold substantial potential for applications in augmented reality, digital twin systems, remote collaboration and prototyping. We present an end-to-end pipeline that leverages 3D Gaussian Splatting (3D GS) to enable rapid acquisition and interactive rendering of real-world objects using a mobile device, cloud processing and a local computer. Users scan an object with a smartphone video, upload it for automated 3D reconstruction, and visualize it interactively in Unity at an average of 150 frames per second (fps) on a laptop. The system integrates mobile capture, cloud-based 3D GS and Unity rendering to support real-time telepresence. Our experiments show that the pipeline processes scans in approximately 10 minutes on a graphics processing unit (GPU) achieving real-time rendering on the laptop.
- Abstract(参考訳): 三次元(3D)オブジェクトをリアルタイムでキャプチャしてレンダリングすることは大きな課題だが、拡張現実、デジタルツインシステム、リモートコラボレーション、プロトタイピングなどの応用には大きな可能性を秘めている。
本稿では,モバイルデバイス,クラウド処理,ローカルコンピュータを用いた実世界のオブジェクトの高速な取得とインタラクティブレンダリングを実現するために,3Dガウス・スプレイティング(3D GS)を利用したエンドツーエンドパイプラインを提案する。
ユーザーはスマートフォンのビデオでオブジェクトをスキャンし、自動3D再構成のためにアップロードし、ノートパソコン上で平均150フレーム/秒(fps)でUnityでインタラクティブに視覚化する。
このシステムは、リアルタイムテレプレゼンスをサポートするために、モバイルキャプチャ、クラウドベースの3D GS、Unityレンダリングを統合している。
実験の結果,パイプラインプロセスはグラフィックス処理ユニット(GPU)上で約10分で,ラップトップ上でのリアルタイムレンダリングを実現していることがわかった。
関連論文リスト
- Drag4D: Align Your Motion with Text-Driven 3D Scene Generation [77.79131321983677]
Drag4Dはインタラクティブなフレームワークで、テキスト駆動の3Dシーン生成にオブジェクトの動き制御を統合する。
このフレームワークにより、ユーザーは単一の画像から生成された3Dオブジェクトに対して3Dトラジェクトリを定義し、それらを高品質な3D背景にシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-09-26T05:23:45Z) - Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-Distillation [87.91642226587294]
現在の学習に基づく3D再構成手法は、キャプチャーされた実世界のマルチビューデータに頼っている。
本稿では,ビデオ拡散モデルにおける暗黙的な3次元知識を,明示的な3次元ガウススプラッティング(3DGS)表現に蒸留する自己蒸留フレームワークを提案する。
本フレームワークは静的・動的3次元シーン生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-23T17:58:01Z) - ObjFiller-3D: Consistent Multi-view 3D Inpainting via Video Diffusion Models [76.80262068405243]
3Dインパインティングは、しばしばマルチビュー2Dイメージのインパインティングに依存し、固有の不整合は、ぼやけたテクスチャ、空間的な不連続、視覚的アーティファクトを逸脱させる。
高品質で一貫した3Dオブジェクトを補完・編集するための新しい手法であるFiller-3Dを提案する。
映像と3Dの表現ギャップを解析し,映像のインパインティングモデルによる3Dシーンのインパインティングの適応を提案する。
論文 参考訳(メタデータ) (2025-08-25T17:59:40Z) - A Real-time 3D Desktop Display [0.0]
altiro3Dは、2Dウェブカメラ画像またはフラットビデオファイルからの3Dビデオストリームを扱うことを目的としている。
マルチビューを再現するために必要なコア機能は、MiDaS Convolutional Neural Network(CNN)の利用である。
ユーザによるデスクトップ画面領域の取得を容易にするため,マルチプラットフォームなグラフィカルユーザインタフェースも実装されている。
論文 参考訳(メタデータ) (2025-06-09T10:55:15Z) - PromptVFX: Text-Driven Fields for Open-World 3D Gaussian Animation [49.91188543847175]
フィールド予測タスクとして3Dアニメーションを再構成し、3Dガウスに作用する時間変化の4Dフロー場を推定するテキスト駆動フレームワークを導入する。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を関数生成に活用することにより,任意のプロンプトを解釈し,色,不透明度,位置をリアルタイムで更新する。
論文 参考訳(メタデータ) (2025-06-01T17:22:59Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction [53.28220984270622]
3次元再構成法はリアルタイムに3次元整合性のある高忠実度結果を生成する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Unsupervised Volumetric Animation [54.52012366520807]
非剛性変形物体の教師なし3次元アニメーションのための新しい手法を提案する。
本手法は,RGBビデオのみからオブジェクトの3次元構造とダイナミックスを学習する。
我々は,本モデルを用いて,単一ボリュームまたは少数の画像からアニマタブルな3Dオブジェクトを得ることができることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:54Z) - One Shot 3D Photography [40.83662583097118]
本稿では,3D画像の作成と閲覧を行うエンド・ツー・エンドシステムを提案する。
私たちの3D写真は1枚の写真で撮影され、モバイルデバイスで直接処理されます。
論文 参考訳(メタデータ) (2020-08-27T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。