論文の概要: StereoSpace: Depth-Free Synthesis of Stereo Geometry via End-to-End Diffusion in a Canonical Space
- arxiv url: http://arxiv.org/abs/2512.10959v1
- Date: Thu, 11 Dec 2025 18:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.585996
- Title: StereoSpace: Depth-Free Synthesis of Stereo Geometry via End-to-End Diffusion in a Canonical Space
- Title(参考訳): ステレオ空間:カノニカル空間における終端拡散による立体幾何学の深さ自由合成
- Authors: Tjark Behrens, Anton Obukhov, Bingxin Ke, Fabio Tosi, Matteo Poggi, Konrad Schindler,
- Abstract要約: 本稿では,単分子対ステレオ合成のための拡散ベースのフレームワークであるStereoSpaceを紹介する。
標準整定空間と条件付けは、生成元が対応を推測し、非閉塞をエンドツーエンドに埋めるように誘導する。
- 参考スコア(独自算出の注目度): 55.40440023281068
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce StereoSpace, a diffusion-based framework for monocular-to-stereo synthesis that models geometry purely through viewpoint conditioning, without explicit depth or warping. A canonical rectified space and the conditioning guide the generator to infer correspondences and fill disocclusions end-to-end. To ensure fair and leakage-free evaluation, we introduce an end-to-end protocol that excludes any ground truth or proxy geometry estimates at test time. The protocol emphasizes metrics reflecting downstream relevance: iSQoE for perceptual comfort and MEt3R for geometric consistency. StereoSpace surpasses other methods from the warp & inpaint, latent-warping, and warped-conditioning categories, achieving sharp parallax and strong robustness on layered and non-Lambertian scenes. This establishes viewpoint-conditioned diffusion as a scalable, depth-free solution for stereo generation.
- Abstract(参考訳): 本稿では,単分子-ステレオ合成のための拡散型フレームワークであるStereoSpaceを紹介する。
標準整定空間と条件付けは、生成元が対応を推測し、非閉塞をエンドツーエンドに埋めるように誘導する。
公平かつ漏洩のない評価を保証するため,テスト時に基底的真実やプロキシ幾何推定を除外するエンドツーエンドプロトコルを導入する。
iSQoEは知覚的快適性、MEt3Rは幾何学的整合性である。
StereoSpaceは、ワープ&インペイント、ラテントワープ、およびワープコンディショニングのカテゴリーの他の手法を超越し、層状および非ランバートのシーンで鋭いパララックスと強い堅牢性を達成する。
これにより、立体生成のためのスケーラブルで深さのない解として、視点条件拡散が確立される。
関連論文リスト
- OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - BridgeDepth: Bridging Monocular and Stereo Reasoning with Latent Alignment [31.118114556998048]
モノラルおよびステレオのアプローチを3次元推定にブリッジする統合フレームワークを導入する。
新しいクロスアテンタティブアライメント機構は、ステレオ仮説表現とモノクロコンテキストキューを動的に同期させる。
我々のアプローチは、モダリティ固有の制限を超越した堅牢な3D知覚を可能にする。
論文 参考訳(メタデータ) (2025-08-06T16:31:22Z) - Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - Harmonizing Geometry and Uncertainty: Diffusion with Hyperspheres [43.20744744438439]
本稿では,超球面構造を指向性雑音に整合させ,クラス形状を保ち,角の不確実性を効果的に捉えるためにHyperSphereDiffを導入する。
4つのオブジェクトデータセットと2つの顔データセットの枠組みを評価し,角不確かさを組み込むことで,下層の超球面多様体をよりよく保存できることを示した。
論文 参考訳(メタデータ) (2025-06-12T11:10:52Z) - Bridging Stereo Geometry and BEV Representation with Reliable Mutual Interaction for Semantic Scene Completion [45.171150395915056]
3Dセマンティックシーン補完(SSC)は、限られた観測から密集した3Dシーンを推定する必要がある不適切な認識課題である。
従来のカメラベースの手法は、固有の幾何学的曖昧さと不完全な観察のため、正確なセマンティックシーンを予測するのに苦労した。
我々は,SSCにおけるステレオマッチング技術と鳥眼ビュー(BEV)表現学習を利用して,そのような問題に対処する。
論文 参考訳(メタデータ) (2023-03-24T12:33:44Z) - On Robust Cross-View Consistency in Self-Supervised Monocular Depth Estimation [56.97699793236174]
本論文では,2種類の堅牢なクロスビュー整合性について検討する。
深度特徴空間と3次元ボクセル空間の時間的コヒーレンスを自己教師付き単眼深度推定に利用した。
いくつかのアウトドアベンチマークの実験結果から,本手法は最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2022-09-19T03:46:13Z) - Analyzing the Latent Space of GAN through Local Dimension Estimation [4.688163910878411]
高忠実度画像合成におけるスタイルベースGAN(StyleGAN)は、それらの潜在空間の意味的特性を理解するために研究の動機となっている。
事前学習したGANモデルにおける任意の中間層に対する局所次元推定アルゴリズムを提案する。
提案した計量はDistortionと呼ばれ、学習された潜在空間上の内在空間の不整合を測定する。
論文 参考訳(メタデータ) (2022-05-26T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。