論文の概要: Refracting Reality: Generating Images with Realistic Transparent Objects
- arxiv url: http://arxiv.org/abs/2511.17340v1
- Date: Fri, 21 Nov 2025 16:02:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.093326
- Title: Refracting Reality: Generating Images with Realistic Transparent Objects
- Title(参考訳): Refracting Reality: 現実的な透明物体を用いた画像生成
- Authors: Yue Yin, Enze Tao, Dylan Campbell,
- Abstract要約: テキストのプロンプトを考慮し、正確な屈折率で画像を生成するという問題を考察する。
我々は、オブジェクトの境界内のピクセルと外部のピクセルとの同期を、画素の歪みとマージによって行う。
画像内で直接観察されないが、屈折や反射によって見える表面では、画像と第2生成画像とを同期させることで、その外観を回復する。
- 参考スコア(独自算出の注目度): 21.254951751906383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative image models can produce convincingly real images, with plausible shapes, textures, layouts and lighting. However, one domain in which they perform notably poorly is in the synthesis of transparent objects, which exhibit refraction, reflection, absorption and scattering. Refraction is a particular challenge, because refracted pixel rays often intersect with surfaces observed in other parts of the image, providing a constraint on the color. It is clear from inspection that generative models have not distilled the laws of optics sufficiently well to accurately render refractive objects. In this work, we consider the problem of generating images with accurate refraction, given a text prompt. We synchronize the pixels within the object's boundary with those outside by warping and merging the pixels using Snell's Law of Refraction, at each step of the generation trajectory. For those surfaces that are not directly observed in the image, but are visible via refraction or reflection, we recover their appearance by synchronizing the image with a second generated image -- a panorama centered at the object -- using the same warping and merging procedure. We demonstrate that our approach generates much more optically-plausible images that respect the physical constraints.
- Abstract(参考訳): 生成する画像モデルは、もっともらしい形状、テクスチャ、レイアウト、照明を備えた、説得力のある実際の画像を生成することができる。
しかし、それらが顕著に機能しない領域は、屈折、反射、吸収、散乱を示す透明な物体の合成である。
屈折は特定の課題であり、屈折したピクセル線は画像の他の部分で観察される表面としばしば交差し、色に制約を与えるためである。
生成モデルは、屈折物体を正確にレンダリングするのに十分な光学の法則を十分に蒸留していないことは、検査から明らかである。
本研究では,テキストのプロンプトを考慮し,正確な屈折率で画像を生成することの問題点を考察する。
我々は、生成軌跡の各ステップにおいて、スネルの屈折法則を用いて、物体の境界内のピクセルと外部のピクセルを歪ませ、融合させることにより、オブジェクトの境界内のピクセルを同期させる。
画像内で直接観察されていないが、屈折や反射によって観察される表面では、同じワーピングとマージ手順を使用して、画像と第2生成画像(物体を中心とするパノラマ)を同期させることで、画像の外観を回復する。
提案手法は, 物理的制約を尊重する, より光学的に証明可能な画像を生成する。
関連論文リスト
- LaRender: Training-Free Occlusion Control in Image Generation via Latent Rendering [10.476519949850118]
画像中の物体間の閉塞関係を正確に制御する学習自由な画像生成アルゴリズムを提案する。
本研究では,物体の透明度,質量密度,光強度など,様々な効果が得られることを示す。
論文 参考訳(メタデータ) (2025-08-11T05:57:59Z) - Photorealistic Object Insertion with Diffusion-Guided Inverse Rendering [56.68286440268329]
現実世界のシーンの画像に仮想オブジェクトを正しく挿入するには、シーンの照明、幾何学、材料を深く理解する必要がある。
本稿では,物理ベースの逆レンダリングプロセスへのガイダンスとして,パーソナライズされた大規模拡散モデルを提案する。
本手法は,シーンライティングとトーンマッピングのパラメータを復元し,任意の仮想オブジェクトの光リアルな構成を室内や屋外のシーンの単一フレームやビデオで再現する。
論文 参考訳(メタデータ) (2024-08-19T05:15:45Z) - Curved Diffusion: A Generative Model With Optical Geometry Control [56.24220665691974]
最終シーンの外観に対する異なる光学系の影響は、しばしば見過ごされる。
本研究では,画像レンダリングに使用される特定のレンズとテキスト画像拡散モデルを密接に統合するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-29T13:06:48Z) - Towards Monocular Shape from Refraction [23.60349429048409]
我々はスネルの法則に基づく単純なエネルギー関数が任意の屈折曲面幾何の再構成を可能にすることを示す。
曲面全体の解法は暗黙的なパラメータフリー空間正規化を同時に導入することを示す。
論文 参考訳(メタデータ) (2023-05-31T11:09:37Z) - Relightify: Relightable 3D Faces from a Single Image via Diffusion
Models [86.3927548091627]
単一画像からの3次元顔BRDF再構成を高精度に行うために,拡散モデルを用いた最初のアプローチを提案する。
既存の手法とは対照的に,観測されたテクスチャを直接入力画像から取得することで,より忠実で一貫した推定が可能となる。
論文 参考訳(メタデータ) (2023-05-10T11:57:49Z) - Seeing Through the Glass: Neural 3D Reconstruction of Object Inside a
Transparent Container [61.50401406132946]
透明な囲いは、異なる伝搬媒質間の界面に複数の光反射と屈折の挑戦を引き起こす。
我々は、内部部分空間の幾何学と外観を暗黙的に表現する既存のニューラル再構成法(NeuS)を用いる。
複雑な光相互作用を説明するため,ボリュームレンダリングとレイトレーシングを組み合わせたハイブリッドレンダリング戦略を開発した。
論文 参考訳(メタデータ) (2023-03-24T04:58:27Z) - DIB-R++: Learning to Predict Lighting and Material with a Hybrid
Differentiable Renderer [78.91753256634453]
そこで本研究では,単体画像から固有物体特性を推定する難題について,微分可能量を用いて検討する。
そこで本研究では、スペクトル化とレイトレーシングを組み合わせることで、これらの効果をサポートするハイブリッド微分可能なDIBR++を提案する。
より高度な物理ベースの微分可能値と比較すると、DIBR++はコンパクトで表現力のあるモデルであるため、高い性能を持つ。
論文 参考訳(メタデータ) (2021-10-30T01:59:39Z) - Dense Reconstruction of Transparent Objects by Altering Incident Light
Paths Through Refraction [40.696591594772876]
光の屈折に基づく透明物体の高密度表面再構成に対する固定的な視点アプローチを導入する。
我々は、物体を部分的に液体に浸すことで、光が物体に入る前に入射光路を変更することができる装置を提案する。
論文 参考訳(メタデータ) (2021-05-20T19:01:12Z) - Refractive Light-Field Features for Curved Transparent Objects in
Structure from Motion [10.380414189465345]
曲面透明物体から屈折する光のパターンを検出し,記述する光場のための新しい画像特徴を提案する。
屈折物体を含む難易度の高い場面において, 動作からの構造性能が向上することを示す。
本手法は,ロボットが屈折物体を操作できるようにするための重要なステップである。
論文 参考訳(メタデータ) (2021-03-29T05:55:32Z) - Shape, Illumination, and Reflectance from Shading [86.71603503678216]
コンピュータビジョンにおける根本的な問題は、フラットな2次元画像から世界の本質的な3次元構造を推定することである。
表面は滑らかである傾向があり、塗料は均一である傾向があり、照明は自然である傾向にある。
我々の技術は、いくつかの古典的なコンピュータビジョン問題のスーパーセットと見なすことができる。
論文 参考訳(メタデータ) (2020-10-07T18:14:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。