論文の概要: studentSplat: Your Student Model Learns Single-view 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2601.11772v1
- Date: Fri, 16 Jan 2026 20:56:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.315783
- Title: studentSplat: Your Student Model Learns Single-view 3D Gaussian Splatting
- Title(参考訳): studentsSplat: 学生のモデルは、シングルビューの3Dガウスプラッティングを学習する
- Authors: Yimu Pan, Hongda Mao, Qingshuang Chen, Yelin Kim,
- Abstract要約: シーン再構築のための3次元ガウス分割法であるtextbfstudentSplat を提案する。
実験によって、学生Splatは、最先端の単一ビューの新規ビューの再現品質と、シーンレベルでのマルチビューメソッドに匹敵するパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 3.8715637449296705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advance in feed-forward 3D Gaussian splatting has enable remarkable multi-view 3D scene reconstruction or single-view 3D object reconstruction but single-view 3D scene reconstruction remain under-explored due to inherited ambiguity in single-view. We present \textbf{studentSplat}, a single-view 3D Gaussian splatting method for scene reconstruction. To overcome the scale ambiguity and extrapolation problems inherent in novel-view supervision from a single input, we introduce two techniques: 1) a teacher-student architecture where a multi-view teacher model provides geometric supervision to the single-view student during training, addressing scale ambiguity and encourage geometric validity; and 2) an extrapolation network that completes missing scene context, enabling high-quality extrapolation. Extensive experiments show studentSplat achieves state-of-the-art single-view novel-view reconstruction quality and comparable performance to multi-view methods at the scene level. Furthermore, studentSplat demonstrates competitive performance as a self-supervised single-view depth estimation method, highlighting its potential for general single-view 3D understanding tasks.
- Abstract(参考訳): 近年のフィードフォワード3次元ガウシアンスプラッティングの進歩により、目覚しいマルチビュー3次元シーン再構築やシングルビュー3次元オブジェクト再構築が可能となったが、シングルビュー3次元シーン再構築は、単一ビューにおける曖昧さの相違により、未探索のままである。
シーン再構築のための一視点3次元ガウススプラッティング法である \textbf{studentSplat} を提案する。
単一入力からの新規視点監視に固有のスケールの曖昧さと外挿問題を克服するために,2つの手法を紹介した。
1 多視点教師モデルが訓練中に一視点学生に幾何学的監督を提供し、スケールのあいまいさに対処し、幾何的妥当性を奨励する教師学生アーキテクチャ
2) シーンコンテキストの欠如を解消し,高品質な外挿を可能にする外挿ネットワーク。
広汎な実験により、学生Splatは、最先端のシングルビュー・ノベル・ビュー・リコンストラクションの品質と、シーンレベルでのマルチビュー・メソッドに匹敵するパフォーマンスを実現した。
さらに、学生Splatは、自己教師付き一視点深度推定法として競争性能を示し、一般的な一視点3D理解タスクの可能性を強調している。
関連論文リスト
- CATSplat: Context-Aware Transformer with Spatial Guidance for Generalizable 3D Gaussian Splatting from A Single-View Image [18.445769892372528]
単視点3Dシーン再構成のための新しい一般化可能なトランスフォーマーベースのフレームワークであるCATSplatを紹介する。
シーン固有のコンテキストの詳細をテキスト埋め込みからクロスアテンションに組み込むことで、コンテキスト認識の再構築の道を開く。
大規模データセットを用いた実験により, 単視点3次元シーン再構成におけるCATSplatの最先端性能が実証された。
論文 参考訳(メタデータ) (2024-12-17T13:32:04Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Deformable Model-Driven Neural Rendering for High-Fidelity 3D
Reconstruction of Human Heads Under Low-View Settings [20.07788905506271]
低視点で3Dの頭部を再構築することは技術的な課題を呈する。
幾何学的分解を提案し、2段階の粗大なトレーニング戦略を採用する。
提案手法は,低視野環境下での再現精度と新規ビュー合成の観点から,既存のニューラルレンダリング手法より優れる。
論文 参考訳(メタデータ) (2023-03-24T08:32:00Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。