論文の概要: DiffCSG: Differentiable CSG via Rasterization
- arxiv url: http://arxiv.org/abs/2409.01421v2
- Date: Mon, 9 Sep 2024 16:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 22:55:38.373811
- Title: DiffCSG: Differentiable CSG via Rasterization
- Title(参考訳): DiffCSG:ラスタ化による差別化可能なCSG
- Authors: Haocheng Yuan, Adrien Bousseau, Hao Pan, Chengquan Zhang, Niloy J. Mitra, Changjian Li,
- Abstract要約: 微分レンダリングは、逆レンダリングと機械学習の重要な要素である。
本稿では,コンストラクティブソリッドジオメトリー(CSG)を微分可能な方法で描画するアルゴリズムDiffCSGを提案する。
私たちのアルゴリズムはシンプルで高速で、最新の機械学習のセットアップに簡単に組み込むことができ、幅広いアプリケーションを可能にします。
- 参考スコア(独自算出の注目度): 42.48127201787373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentiable rendering is a key ingredient for inverse rendering and machine learning, as it allows to optimize scene parameters (shape, materials, lighting) to best fit target images. Differentiable rendering requires that each scene parameter relates to pixel values through differentiable operations. While 3D mesh rendering algorithms have been implemented in a differentiable way, these algorithms do not directly extend to Constructive-Solid-Geometry (CSG), a popular parametric representation of shapes, because the underlying boolean operations are typically performed with complex black-box mesh-processing libraries. We present an algorithm, DiffCSG, to render CSG models in a differentiable manner. Our algorithm builds upon CSG rasterization, which displays the result of boolean operations between primitives without explicitly computing the resulting mesh and, as such, bypasses black-box mesh processing. We describe how to implement CSG rasterization within a differentiable rendering pipeline, taking special care to apply antialiasing along primitive intersections to obtain gradients in such critical areas. Our algorithm is simple and fast, can be easily incorporated into modern machine learning setups, and enables a range of applications for computer-aided design, including direct and image-based editing of CSG primitives. Code and data: https://yyyyyhc.github.io/DiffCSG/.
- Abstract(参考訳): 異なるレンダリングは、シーンパラメータ(形状、材料、照明)を最適化し、ターゲット画像に最適なものにすることができるため、逆レンダリングと機械学習の鍵となる要素である。
異なるレンダリングでは、各シーンパラメータは、異なる操作を通じてピクセル値に関連付ける必要がある。
3Dメッシュレンダリングアルゴリズムは異なる方法で実装されているが、これらのアルゴリズムは一般的な形状のパラメトリック表現であるコンストラクティブ・ソリッド・ジオメトリー(CSG)に直接拡張されない。
CSGモデルを異なる方法でレンダリングするアルゴリズムDiffCSGを提案する。
我々のアルゴリズムはCSGラスタライゼーションに基づいており、結果として得られるメッシュを明示的に計算することなくプリミティブ間のブール演算の結果を表示し、ブラックボックスメッシュ処理をバイパスする。
本稿では,CSGラスタ化を異なるレンダリングパイプライン内に実装する方法について述べる。
我々のアルゴリズムはシンプルで高速で、現代の機械学習に簡単に組み込むことができ、CSGプリミティブの直接および画像ベースの編集を含む、コンピュータ支援設計のための幅広いアプリケーションを可能にする。
コードとデータ:https://yyyyyhc.github.io/DiffCSG/。
関連論文リスト
- MIRReS: Multi-bounce Inverse Rendering using Reservoir Sampling [17.435649250309904]
本稿では,新しい2段階逆レンダリングフレームワークであるMIRReSを紹介する。
提案手法は, ステージ1で明示的な幾何(三角形メッシュ)を抽出し, より現実的な物理ベースの逆レンダリングモデルを導入する。
本手法は,自己陰影や内部反射を含む間接照明を効果的に推定する。
論文 参考訳(メタデータ) (2024-06-24T07:00:57Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - Efficient Encoding of Graphics Primitives with Simplex-based Structures [0.8158530638728501]
本稿では,グラフィックプリミティブを符号化するシンプルな手法を提案する。
提案手法は, 2次元画像整合作業において, ベースライン法に比べて9.4%少ない時間で画像の整合を行うことができる。
論文 参考訳(メタデータ) (2023-11-26T21:53:22Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Conditional Sequential Modulation for Efficient Global Image Retouching [45.99310982782054]
フォトリタッチは、露出過度、コントラストの低さ、不調和な彩度といった写真的欠陥に悩まされる画像の美的品質を高めることを目的としている。
本稿では,一般的に使用されているリタッチ操作について検討し,これらの画素非依存演算が多層パーセプトロン(MLP)によって近似あるいは定式化可能であることを数学的に確認する。
我々は,効率的なグローバル画像リタッチのための非常に軽量なフレームワークであるSequential Retouching Network (CSRNet)を提案する。
論文 参考訳(メタデータ) (2020-09-22T08:32:04Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。