論文の概要: Guardians of the Hair: Rescuing Soft Boundaries in Depth, Stereo, and Novel Views
- arxiv url: http://arxiv.org/abs/2601.03362v1
- Date: Tue, 06 Jan 2026 19:02:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:22.981225
- Title: Guardians of the Hair: Rescuing Soft Boundaries in Depth, Stereo, and Novel Views
- Title(参考訳): 髪のガーディアン:深度、ステレオ、そして新しい視点でソフト境界を救い出す
- Authors: Xiang Zhang, Yang Zhang, Lukas Mehl, Markus Gross, Christopher Schroers,
- Abstract要約: 本稿では,3次元視覚タスクにおける細粒度境界の詳細を復元するフレームワークであるHairGuardを紹介する。
HairGuardはモノクロ深度推定、ステレオ画像/ビデオ変換、新しいビュー合成など、最先端のパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 20.270591069701677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Soft boundaries, like thin hairs, are commonly observed in natural and computer-generated imagery, but they remain challenging for 3D vision due to the ambiguous mixing of foreground and background cues. This paper introduces Guardians of the Hair (HairGuard), a framework designed to recover fine-grained soft boundary details in 3D vision tasks. Specifically, we first propose a novel data curation pipeline that leverages image matting datasets for training and design a depth fixer network to automatically identify soft boundary regions. With a gated residual module, the depth fixer refines depth precisely around soft boundaries while maintaining global depth quality, allowing plug-and-play integration with state-of-the-art depth models. For view synthesis, we perform depth-based forward warping to retain high-fidelity textures, followed by a generative scene painter that fills disoccluded regions and eliminates redundant background artifacts within soft boundaries. Finally, a color fuser adaptively combines warped and inpainted results to produce novel views with consistent geometry and fine-grained details. Extensive experiments demonstrate that HairGuard achieves state-of-the-art performance across monocular depth estimation, stereo image/video conversion, and novel view synthesis, with significant improvements in soft boundary regions.
- Abstract(参考訳): 細い髪のようなソフトな境界線は、自然とコンピュータ生成の画像でよく見られるが、前景と背景があいまいに混ざり合っているため、3Dの視界は依然として困難である。
本稿では,3次元視覚タスクにおける細粒度境界の詳細を復元するフレームワークであるGuarders of the Hair (HairGuard)を紹介する。
具体的には、まず、画像マッチングデータセットを活用して深度固定器ネットワークを訓練し、ソフト境界領域を自動的に識別する新しいデータキュレーションパイプラインを提案する。
ゲート状残留モジュールにより、深度固定器は、大域的な深度品質を維持しつつ、ソフトバウンダリの周囲の深さを正確に改善し、最先端の深度モデルとのプラグアンドプレイ統合を可能にする。
ビュー合成では,高忠実度テクスチャを維持するために奥行きベースの前方ワープを行い,次に非閉塞領域を埋め、ソフトバウンダリ内の冗長な背景アーティファクトを除去する生成シーンを描画する。
最後に、カラーファウザーは、歪んだ結果と塗装された結果とを適応的に組み合わせ、一貫した幾何ときめ細かい詳細を持つ新しいビューを生成する。
HairGuardはモノクロ深度推定、ステレオ画像/ビデオ変換、新しいビュー合成、ソフトバウンダリ領域の大幅な改善などにより最先端の性能を実現している。
関連論文リスト
- LaFiTe: A Generative Latent Field for 3D Native Texturing [72.05710323154288]
既存のネイティブアプローチは、その生成したテクスチャの忠実さと一般性を著しく制限する、強力で多目的な表現が欠如しているため、疎外である。
粗い色表現と紫外パラメータ化によって制約された高品質なテクスチャを生成するLaFiTeを紹介する。
論文 参考訳(メタデータ) (2025-12-04T13:33:49Z) - Learning Fine-Grained Geometry for Sparse-View Splatting via Cascade Depth Loss [15.425094458647933]
粗い部分から細かい部分まで幾何を段階的に洗練する深度監視フレームワークである階層深度誘導平滑化(HDGS)を導入する。
マルチスケールの奥行き整合性を実現することにより,スパースビューのシナリオにおける構造的忠実度を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-28T12:16:42Z) - Improving Geometric Consistency for 360-Degree Neural Radiance Fields in Indoor Scenarios [3.5229503563299915]
フォトリアリスティックレンダリングと新しいビュー合成は、人間とコンピュータのインタラクションタスクにおいて重要な役割を果たす。
NeRFは大規模で低テクスチャな地域でしばしば苦労し、「フローター」として知られる曇りのアーティファクトを生み出している。
困難で低機能な領域におけるレンダリング品質を向上させるために,新しい奥行き損失関数を導入する。
論文 参考訳(メタデータ) (2025-03-17T20:30:48Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - DepthGAN: GAN-based Depth Generation of Indoor Scenes from Semantic
Layouts [8.760217259912231]
入力としての意味的レイアウトのみを持つ深度マップを生成する新しい方法であるDepthGANを提案する。
本稿では,DepthGANが,深度生成タスクにおける定量的結果と視覚効果の両方において優れた性能を発揮することを示す。
また,3次元屋内シーンを,合理的な構造と空間的整合性を持った深度マップによって再構成できることも示した。
論文 参考訳(メタデータ) (2022-03-22T04:18:45Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。