論文の概要: Seeing A 3D World in A Grain of Sand
- arxiv url: http://arxiv.org/abs/2503.00260v2
- Date: Mon, 24 Mar 2025 23:32:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 20:13:54.290493
- Title: Seeing A 3D World in A Grain of Sand
- Title(参考訳): 砂の粒の中に3D世界を見る
- Authors: Yufan Zhang, Yu Ji, Yu Guo, Jinwei Ye,
- Abstract要約: 本研究では,1台のカメラと8対の平面鏡を用いた動画像撮影システムの設計を行った。
本手法は,様々なミニチュアシーンにおける最先端性能を示す。
- 参考スコア(独自算出の注目度): 10.896469454726395
- License:
- Abstract: We present a snapshot imaging technique for recovering 3D surrounding views of miniature scenes. Due to their intricacy, miniature scenes with objects sized in millimeters are difficult to reconstruct, yet miniatures are common in life and their 3D digitalization is desirable. We design a catadioptric imaging system with a single camera and eight pairs of planar mirrors for snapshot 3D reconstruction from a dollhouse perspective. We place paired mirrors on nested pyramid surfaces for capturing surrounding multi-view images in a single shot. Our mirror design is customizable based on the size of the scene for optimized view coverage. We use the 3D Gaussian Splatting (3DGS) representation for scene reconstruction and novel view synthesis. We overcome the challenge posed by our sparse view input by integrating visual hull-derived depth constraint. Our method demonstrates state-of-the-art performance on a variety of synthetic and real miniature scenes.
- Abstract(参考訳): ミニチュアシーンの3次元映像を再現するためのスナップショット撮影手法を提案する。
複雑なため、ミリサイズのオブジェクトを持つミニチュアシーンは再構築が難しいが、生活ではミニチュアが一般的であり、3Dデジタル化が望ましい。
本研究では,1台のカメラと8対の平面鏡を用いた動画像撮影システムの設計を行った。
ネストしたピラミッド表面に2枚の鏡を配置し,周囲の多視点画像を1枚の写真で捉えた。
私たちのミラーデザインは、最適化されたビューカバレッジのためにシーンのサイズに基づいてカスタマイズできます。
我々は3Dガウススプラッティング(3DGS)表現をシーン再構成と新しいビュー合成に用いている。
我々は、視覚的な船体由来の深度制約を統合することで、スパースビュー入力によって引き起こされる課題を克服する。
本手法は,様々なミニチュアシーンにおける最先端性能を示す。
関連論文リスト
- From an Image to a Scene: Learning to Imagine the World from a Million 360 Videos [71.22810401256234]
オブジェクトやシーンの3次元理解は、人間が世界と対話する能力において重要な役割を果たす。
大規模合成およびオブジェクト中心の3Dデータセットは、オブジェクトの3D理解を持つモデルのトレーニングに有効であることが示されている。
我々は360-1M、360度ビデオデータセット、およびスケールの多様な視点から対応するフレームを効率的に見つけるプロセスを紹介した。
論文 参考訳(メタデータ) (2024-12-10T18:59:44Z) - Pano2Room: Novel View Synthesis from a Single Indoor Panorama [20.262621556667852]
Pano2Roomは、1枚のパノラマ画像から高品質な3D屋内シーンを自動的に再構築するように設計されている。
鍵となるアイデアは、最初に入力パノラマから予備メッシュを構築し、パノラマRGBDインペイントを使用して反復的にこのメッシュを洗練することである。
精巧なメッシュは3次元ガウス散乱場に変換され、収集された擬似ノベルビューで訓練される。
論文 参考訳(メタデータ) (2024-08-21T08:19:12Z) - Toon3D: Seeing Cartoons from New Perspectives [52.85312338932685]
漫画やアニメのイメージから、同じシーンを描いている3D構造を復元する。
私たちのキーとなる洞察は、カメラのポーズとシーンの幾何学を回復しながら入力画像を変形させることです。
我々の回収した点雲は、今まで描いたことのない視点から漫画を体験する新しい視点合成法に接続することができる。
論文 参考訳(メタデータ) (2024-05-16T17:59:51Z) - CAT3D: Create Anything in 3D with Multi-View Diffusion Models [87.80820708758317]
CAT3D(CAT3D)は,この実世界のキャプチャプロセスを多視点拡散モデルでシミュレートし,任意のものを3Dで作成する手法である。
CAT3Dは1分で3Dシーン全体を作成できる。
論文 参考訳(メタデータ) (2024-05-16T17:59:05Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - 3DFIRES: Few Image 3D REconstruction for Scenes with Hidden Surface [8.824340350342512]
3DFIRESは、ポーズ画像からシーンレベルの3D再構成を行う新しいシステムである。
単一視点再構成法の有効性を1つの入力で示す。
論文 参考訳(メタデータ) (2024-03-13T17:59:50Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - State of the Art in Dense Monocular Non-Rigid 3D Reconstruction [100.9586977875698]
モノクル2D画像から変形可能なシーン(または非剛体)の3D再構成は、コンピュータビジョンとグラフィックスの長年、活発に研究されてきた領域である。
本研究は,モノクラー映像やモノクラービューの集合から,様々な変形可能な物体や複合シーンを高密度に非剛性で再現するための最先端の手法に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-27T17:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。