論文の概要: Neural Shadow Art
- arxiv url: http://arxiv.org/abs/2411.19161v2
- Date: Fri, 22 Aug 2025 18:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 14:31:50.411222
- Title: Neural Shadow Art
- Title(参考訳): ニューラルシャドウアート
- Authors: Caoliwen Wang, Bailin Deng, Juyong Zhang,
- Abstract要約: シャドウアート(シャドウアート、Shadow art)は、特定の方向の彫刻の投影が、高い精度で所望の形状を明らかにする彫刻表現の一種である。
シャドウアートの可能性を大幅に拡大するために、暗黙の占有機能表現を活用するニューラルシャドウアートを導入する。
この表現は任意の解像度で任意の位相を持つ高品質な3Dプリント可能な幾何モデルの設計を可能にする。
- 参考スコア(独自算出の注目度): 31.373374956216225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Shadow art is a captivating form of sculptural expression where the projection of a sculpture in a specific direction reveals a desired shape with high precision. In this work, we introduce Neural Shadow Art, which leverages implicit occupancy function representation to significantly expand the possibilities of shadow art. This representation enables the design of high-quality, 3D-printable geometric models with arbitrary topologies at any resolution, surpassing previous voxel- and mesh-based methods. Our method provides a more flexible framework, enabling projections to match input binary images under various light directions and screen orientations, without requiring light sources to be perpendicular to the screens. Furthermore, we allow rigid transformations of the projected geometries relative to the input binary images and simultaneously optimize light directions and screen orientations to ensure that the projections closely resemble the target images, especially when dealing with inputs of complex topologies. In addition, our model promotes surface smoothness and reduces material usage. This is particularly advantageous for efficient industrial production and enhanced artistic effect by generating compelling shadow art that avoids trivial, intersecting cylindrical structures. In summary, we propose a more flexible representation for shadow art, significantly improving projection accuracy while simultaneously meeting industrial requirements and delivering awe-inspiring artistic effects.
- Abstract(参考訳): シャドウアート(シャドウアート、Shadow art)は、特定の方向に彫刻の投影が、高い精度で所望の形状を明らかにする彫刻表現の一形態である。
本稿では,暗黙の占有機能表現を活用して,影芸術の可能性を大幅に拡大するニューラルシャドウアートを紹介する。
この表現は、任意の解像度で任意の位相を持つ高品質な3Dプリント可能な幾何モデルの設計を可能にする。
提案手法はよりフレキシブルなフレームワークを提供し,入力されたバイナリ画像を様々な光方向と画面方向で一致させることができる。
さらに、入力されたバイナリ画像に対する投影されたジオメトリの剛性変換を可能にし、光方向と画面方向を同時に最適化することにより、特に複雑なトポロジの入力を扱う場合、投影がターゲット画像によく似ていることを保証する。
さらに, このモデルにより表面の滑らかさが促進され, 材料使用量も減少する。
これは特に効率的な工業生産と芸術効果を高めるために有利であり、細やかで交差する円筒構造を避ける魅力的なシャドウアートを生成する。
要約して,より柔軟なシャドーアート表現を提案し,工業的要件を同時に満たしつつプロジェクション精度を大幅に向上させ,優れた芸術効果を提供する。
関連論文リスト
- KPLM-STA: Physically-Accurate Shadow Synthesis for Human Relighting via Keypoint-Based Light Modeling [10.273365471847102]
キーポイント線形モデル(KPLM)とシャドートライアングルアルゴリズム(STA)に基づく新しい影生成フレームワークを提案する。
KPLMは9つのキーポイントと1つのバウンディングブロックを使って人体を明瞭に表現し、物理的にもっともらしい影の投影と関節のダイナミックシェーディングを可能にした。
STAはさらに、明示的な幾何学的定式化を通じて影角、長さ、空間位置を計算することにより、幾何学的精度を向上させる。
論文 参考訳(メタデータ) (2025-11-11T12:28:42Z) - Neural Projection Mapping Using Reflectance Fields [11.74757574153076]
我々は、プロジェクターを神経反射場に導入し、プロジェクターを校正し、リアルな光編集を行う。
私たちのニューラルネットワークは3つのニューラルネットワークで構成されています。
ニューラルプロジェクションマッピングは、シーンとプロジェクションイメージの共同最適化を通じて、新規でエキサイティングな下流タスクへの扉を開くと信じている。
論文 参考訳(メタデータ) (2023-06-11T05:33:10Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Extracting Triangular 3D Models, Materials, and Lighting From Images [59.33666140713829]
多視点画像観測による材料と照明の協調最適化手法を提案する。
従来のグラフィックスエンジンにデプロイ可能な,空間的に変化する材料と環境を備えたメッシュを活用します。
論文 参考訳(メタデータ) (2021-11-24T13:58:20Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - A Shading-Guided Generative Implicit Model for Shape-Accurate 3D-Aware
Image Synthesis [163.96778522283967]
そこで本研究では,シェーディング誘導型生成暗黙モデルを提案する。
正確な3D形状は、異なる照明条件下でリアルなレンダリングをもたらす必要がある。
複数のデータセットに対する実験により,提案手法が光リアルな3次元画像合成を実現することを示す。
論文 参考訳(メタデータ) (2021-10-29T10:53:12Z) - Learning Indoor Inverse Rendering with 3D Spatially-Varying Lighting [149.1673041605155]
1枚の画像からアルベド, 正常, 深さ, 3次元の空間的変化を共同で推定する問題に対処する。
既存のほとんどの方法は、シーンの3D特性を無視して、画像から画像への変換としてタスクを定式化する。
本研究では3次元空間変動照明を定式化する統合学習ベースの逆フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:29:03Z) - Shadow Art Revisited: A Differentiable Rendering Based Approach [26.910401398827123]
我々は3次元彫刻を得るために、異なるレンダリングに基づく最適化フレームワークを用いて影芸術を再考する。
シェードアート彫刻の生成に微分レンダリングを使用するという選択は、画像データのみから基礎となる3次元幾何学を学習する能力に起因していると考えられる。
本研究では,顔の影を映し出す3D彫刻の製作,アニメーション映画キャラクタの製作,基礎となる形状をスケッチベースで再現するフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2021-07-30T10:43:48Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。