論文の概要: Physically Aware 360$^\circ$ View Generation from a Single Image using Disentangled Scene Embeddings
- arxiv url: http://arxiv.org/abs/2512.10293v1
- Date: Thu, 11 Dec 2025 05:20:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.199376
- Title: Physically Aware 360$^\circ$ View Generation from a Single Image using Disentangled Scene Embeddings
- Title(参考訳): 360$^\circ$ View Generation from a single image using disentangled Scene Embeddings (特集:日本建築学会第50回講演会講演会・建築デザイン発表会)
- Authors: Karthikeya KV, Narendra Bandaru,
- Abstract要約: そこで,Distangled360を提案する。Distangled360はDistangled volumeレンダリングの利点と単一画像の360ビュー合成を融合した3D認識技術である。
Disentangled360は、混合現実の医療監督、ロボット知覚、没入型コンテンツ作成を促進する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We introduce Disentangled360, an innovative 3D-aware technology that integrates the advantages of direction disentangled volume rendering with single-image 360° unique view synthesis for applications in medical imaging and natural scene reconstruction. In contrast to current techniques that either oversimplify anisotropic light behavior or lack generalizability across various contexts, our framework distinctly differentiates between isotropic and anisotropic contributions inside a Gaussian Splatting backbone. We implement a dual-branch conditioning framework, one optimized for CT intensity driven scattering in volumetric data and the other for real-world RGB scenes through normalized camera embeddings. To address scale ambiguity and maintain structural realism, we present a hybrid pose agnostic anchoring method that adaptively samples scene depth and material transitions, functioning as stable pivots during scene distillation. Our design integrates preoperative radiography simulation and consumer-grade 360° rendering into a singular inference pipeline, facilitating rapid, photorealistic view synthesis with inherent directionality. Evaluations on the Mip-NeRF 360, RealEstate10K, and DeepDRR datasets indicate superior SSIM and LPIPS performance, while runtime assessments confirm its viability for interactive applications. Disentangled360 facilitates mixed-reality medical supervision, robotic perception, and immersive content creation, eliminating the necessity for scene-specific finetuning or expensive photon simulations.
- Abstract(参考訳): 医用画像や自然シーンの再構成に応用するために,方向の切り離しボリュームレンダリングと単一画像の360度ユニークなビュー合成の利点を融合した,革新的な3D認識技術であるDisentangled360を紹介した。
異方性光の挙動を過度に単純化したり、様々な文脈で一般化性に欠ける現在の手法とは対照的に、我々の枠組みはガウススティングバックボーン内での異方性と異方性の寄与を明確に区別する。
我々は、CT強度駆動によるボリュームデータ散乱に最適化されたデュアルブランチ条件付けフレームワークと、正規化カメラ埋め込みによる実世界のRGBシーンに最適化された2つの条件付けフレームワークを実装した。
スケールのあいまいさに対処し, 構造的リアリズムを維持するために, シーンの深さと物質遷移を適応的にサンプリングし, シーン蒸留中に安定なピボットとして機能するハイブリッドポーズ非依存アンカー法を提案する。
本設計では,術前のX線撮影シミュレーションとコンシューマグレードの360度レンダリングを単一推論パイプラインに統合し,自然方向の高速な光リアルビュー合成を実現する。
Mip-NeRF 360、RealEstate10K、DeepDRRデータセットの評価は、SSIMとLPIPSのパフォーマンスが優れていることを示している。
Disentangled360は、複合現実的な医療監督、ロボットの知覚、没入型コンテンツ作成を促進し、シーン固有の微調整や高価な光子シミュレーションの必要性をなくす。
関連論文リスト
- EndoWave: Rational-Wavelet 4D Gaussian Splatting for Endoscopic Reconstruction [18.43808203690038]
内視鏡的シナリオでは、光学的不整合、非剛性組織の動き、ビュー依存ハイライトなど、ユニークな課題が提示される。
3DGSをベースとしたほとんどの手法は、3DGSを最適化するための外観制約のみに依存するが、この文脈では不十分であることが多い。
本稿では,光学フローに基づく幾何制約と多分解能有理ウェーブレット監視を組み込んだEdoWaveを提案する。
論文 参考訳(メタデータ) (2025-10-27T07:45:17Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - SpikeGen: Decoupled "Rods and Cones" Visual Representation Processing with Latent Generative Framework [53.27177454390712]
本研究では,現代の潜在空間生成フレームワークとマルチモーダル視覚入力を統合することで,人間の視覚システムをエミュレートすることを目的とする。
我々はSpikeGenと命名し、条件付き画像やビデオの劣化、スパイクストリームからの高密度フレーム再構成、高速シーンノベルビュー合成など、様々なスパイクRGBタスクのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2025-05-23T15:54:11Z) - EndoPBR: Material and Lighting Estimation for Photorealistic Surgical Simulations via Physically-based Rendering [1.03590082373586]
手術シーンにおける3次元視覚におけるラベル付きデータセットの欠如は、堅牢な3次元再構成アルゴリズムの開発を阻害する。
内視鏡画像と既知の幾何から物質と照明を推定するための微分可能なレンダリングフレームワークを提案する。
レンダリング方程式で色予測を基底にすることにより、任意のカメラポーズでフォトリアリスティックな画像を生成することができる。
論文 参考訳(メタデータ) (2025-02-28T02:50:59Z) - BEAM: Bridging Physically-based Rendering and Gaussian Modeling for Relightable Volumetric Video [58.97416204208624]
BEAMは、4Dガウス表現を物理ベースレンダリング(PBR)でブリッジし、高品質でライティング可能なビデオを生成する新しいパイプラインである。
BEAMは、様々な照明条件下で現実的な人生のような可視化を提供することで、インタラクティブなエンターテイメント、ストーリーテリング、クリエイティブな可視化の新しい可能性を開く。
論文 参考訳(メタデータ) (2025-02-12T10:58:09Z) - GUS-IR: Gaussian Splatting with Unified Shading for Inverse Rendering [83.69136534797686]
GUS-IRは、粗く光沢のある表面を特徴とする複雑なシーンの逆レンダリング問題に対処するために設計された新しいフレームワークである。
本稿では、逆レンダリング、フォワードシェーディング、遅延シェーディングに広く使われている2つの顕著なシェーディング技術を分析し、比較することから始める。
両手法の利点を組み合わせた統合シェーディングソリューションを提案する。
論文 参考訳(メタデータ) (2024-11-12T01:51:05Z) - MVSBoost: An Efficient Point Cloud-based 3D Reconstruction [4.282795945742752]
拡張現実や仮想現実、医用画像、映画特殊効果など、様々な応用において、効率的で正確な3D再構成が不可欠である。
従来のMulti-View Stereo (MVS) システムはこれらのアプリケーションには基本的だが、暗黙の3次元シーンモデリングは複雑なトポロジや連続面を扱う新しい可能性をもたらした。
論文 参考訳(メタデータ) (2024-06-19T13:02:17Z) - WE-GS: An In-the-wild Efficient 3D Gaussian Representation for Unconstrained Photo Collections [8.261637198675151]
制約のない写真コレクションからの新規ビュー合成(NVS)は、コンピュータグラフィックスでは困難である。
写真コレクションからのシーン再構築のための効率的なポイントベース微分可能レンダリングフレームワークを提案する。
提案手法は、新しいビューのレンダリング品質と、高収束・レンダリング速度の外観合成において、既存のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-06-04T15:17:37Z) - Enhancement of Novel View Synthesis Using Omnidirectional Image
Completion [61.78187618370681]
ニューラルレイディアンス場(NeRF)に基づく1枚の360度RGB-D画像から新しいビューを合成する方法を提案する。
実験により,提案手法は実世界と実世界の両方でシーンの特徴を保ちながら,可塑性な新規なビューを合成できることが実証された。
論文 参考訳(メタデータ) (2022-03-18T13:49:25Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。