論文の概要: Neural Image Space Tessellation
- arxiv url: http://arxiv.org/abs/2602.23754v1
- Date: Fri, 27 Feb 2026 07:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.300534
- Title: Neural Image Space Tessellation
- Title(参考訳): ニューラル・イメージ・スペース・テッセルレーション
- Authors: Youyang Du, Junqiu Zhu, Zheng Zeng, Lu Wang, Lingqi Yan,
- Abstract要約: 本稿では,軽量なスクリーン空間後処理手法であるNeural Image-Space Tessellation(NIST)を提案する。
NISTは、オリジナルの低ポリゴンメッシュのみをレンダリングしながら、テクスセル化幾何学の視覚効果を生成する。
NISTは、テッセル化を後処理として再構成し、プレレンダリングされた幾何学パイプラインからスクリーンスペースのニューラルな後処理ステージに移行した最初の試みである。
- 参考スコア(独自算出の注目度): 15.266748327526843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Neural Image-Space Tessellation (NIST), a lightweight screen-space post-processing approach that produces the visual effect of tessellated geometry while rendering only the original low-polygon meshes. Inspired by our observation from Phong tessellation, NIST leverages the discrepancy between geometric normals and shading normals as a minimal, view-dependent cue for silhouette refinement. At its core, NIST performs multi-scale neural tessellation by progressively deforming image-space contours with convolutional operators, while jointly reassigning appearance information through an implicit warping mechanism to preserve texture coherence and visual fidelity. Experiments demonstrate that our approach produces smooth, visually coherent silhouettes comparable to geometric tessellation, while incurring a constant per-frame cost and fully decoupled from geometric complexity, making it well-suited for large-scale real-time rendering scenarios. To the best of our knowledge, our NIST is the first work to reformulate tessellation as a post-processing operation, shifting it from a pre-rendering geometry pipeline to a screen space neural post-processing stage.
- Abstract(参考訳): NIST(Neural Image-Space Tessellation)は,従来の低ポリゴンメッシュのみをレンダリングしながら,テクスセル化幾何学の視覚効果を生み出す,軽量なスクリーン空間後処理手法である。
フォン・テッセルレーションの観測から着想を得たNISTは、幾何正規とシェーディング正規との相違をシルエット精製のための最小のビュー依存キューとして活用する。
中心となるNISTは、画像空間の輪郭を畳み込み演算子と段階的に変形させ、テクスチャコヒーレンスと視覚的忠実性を維持するために暗黙のワープ機構を通じて外観情報を共同で再割り当てすることで、マルチスケールのニューラルテッセルレーションを実行する。
実験により、我々の手法は幾何学的テッセルレーションに匹敵するスムーズな視覚的コヒーレントなシルエットを生成する一方で、フレーム単位のコストが一定であり、幾何学的複雑さから完全に切り離され、大規模なリアルタイムレンダリングシナリオに適していることが示された。
我々の知る限りでは、我々のNISTは、テッセル化を後処理として再構成し、それをプレレンダリングされた幾何学パイプラインからスクリーンスペースのニューラルな後処理ステージに移行する最初の試みである。
関連論文リスト
- DiffTrans: Differentiable Geometry-Materials Decomposition for Reconstructing Transparent Objects [53.83670041249326]
多視点画像から透明な物体を再構成することは、光伝搬の複雑な性質と不確定な振る舞いのために難しい課題である。
本稿では,透明物体の形状や材料を効率よく分解・再構成できる,DiffTransと呼ばれる透明物体の識別可能なレンダリングフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-28T02:21:31Z) - Aligned Novel View Image and Geometry Synthesis via Cross-modal Attention Instillation [62.87088388345378]
ワーピング・アンド・インペインティング手法を用いて,新しいビューイメージと幾何学生成の整合性を実現する拡散型フレームワークを提案する。
手法は、既製の幾何学予測器を利用して、参照画像から見る部分的な幾何学を予測する。
生成した画像と幾何の正確なアライメントを確保するために, クロスモーダルアテンション蒸留法を提案する。
論文 参考訳(メタデータ) (2025-06-13T16:19:00Z) - LinPrim: Linear Primitives for Differentiable Volumetric Rendering [51.56484100374058]
線形プリミティブに基づく2つの新しいシーン表現を導入する。
我々はGPU上で効率的に動作する異なるオクタライザを提案する。
我々は最先端の手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2025-01-27T18:49:38Z) - NeRF-VO: Real-Time Sparse Visual Odometry with Neural Radiance Fields [13.178099653374945]
NeRF-VOは、低遅延カメラトラッキングとニューラルラディアンスシーン表現のための学習ベースのスパースビジュアルオドメトリーを統合している。
我々は、様々な合成および実世界のデータセットに対して、ポーズ推定精度、新しいビュー忠実度、および密度の高い再構成品質においてSOTA法を超越した。
論文 参考訳(メタデータ) (2023-12-20T22:42:17Z) - DNS SLAM: Dense Neural Semantic-Informed SLAM [92.39687553022605]
DNS SLAMは、ハイブリッド表現を備えた新しいRGB-DセマンティックSLAMアプローチである。
本手法は画像に基づく特徴抽出と多視点幾何制約を統合し,外観の細部を改良する。
実験により, 合成データと実世界のデータ追跡の両面において, 最先端の性能が得られた。
論文 参考訳(メタデータ) (2023-11-30T21:34:44Z) - NePF: Neural Photon Field for Single-Stage Inverse Rendering [6.977356702921476]
多視点画像の逆レンダリングに対処するために,新しい単一ステージフレームワークNePF(Neural Photon Field)を提案する。
NePFは、神経暗黙表面の重み関数の背後にある物理的意味を完全に活用することで、この統一を実現する。
我々は本手法を実データと合成データの両方で評価する。
論文 参考訳(メタデータ) (2023-11-20T06:15:46Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Delicate Textured Mesh Recovery from NeRF via Adaptive Surface
Refinement [78.48648360358193]
画像からテクスチャ化された表面メッシュを生成する新しいフレームワークを提案する。
我々のアプローチは、NeRFを用いて幾何学とビュー依存の外観を効率的に初期化することから始まります。
ジオメトリと共同で外観を洗練し、テクスチャ画像に変換してリアルタイムレンダリングします。
論文 参考訳(メタデータ) (2023-03-03T17:14:44Z) - Learning Neural Radiance Fields from Multi-View Geometry [1.1011268090482573]
画像に基づく3次元再構成のために,多視点幾何アルゴリズムとニューラルレージアンス場(NeRF)を組み合わせたMVG-NeRF(MVG-NeRF)というフレームワークを提案する。
NeRFは暗黙の3D表現の分野に革命をもたらした。
論文 参考訳(メタデータ) (2022-10-24T08:53:35Z) - PVSeRF: Joint Pixel-, Voxel- and Surface-Aligned Radiance Field for
Single-Image Novel View Synthesis [52.546998369121354]
シングルビューRGB画像からニューラル放射場を再構成する学習フレームワークPVSeRFを提案する。
本稿では,明示的な幾何学的推論を取り入れ,放射場予測のための画素アラインな特徴と組み合わせることを提案する。
このような幾何学的特徴の導入は、外観と幾何学の絡み合いを改善するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-02-10T07:39:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。