論文の概要: Seeing the World in a Bag of Chips
- arxiv url: http://arxiv.org/abs/2001.04642v2
- Date: Mon, 15 Jun 2020 16:15:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-01-11 12:42:49.338378
- Title: Seeing the World in a Bag of Chips
- Title(参考訳): チップスの袋の中で世界を見る
- Authors: Jeong Joon Park and Aleksander Holynski and Steve Seitz
- Abstract要約: ハンドヘルドRGBDセンサによる新しいビュー合成と環境再構築の二重問題に対処する。
提案するコントリビューションは,1)高スペクトル物体のモデリング,2)反射間およびフレネル効果のモデリング,3)形状のみを再構築するために必要な同じ入力で表面光場再構成を可能にすることを含む。
- 参考スコア(独自算出の注目度): 73.561388215585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the dual problems of novel view synthesis and environment
reconstruction from hand-held RGBD sensors. Our contributions include 1)
modeling highly specular objects, 2) modeling inter-reflections and Fresnel
effects, and 3) enabling surface light field reconstruction with the same input
needed to reconstruct shape alone. In cases where scene surface has a strong
mirror-like material component, we generate highly detailed environment images,
revealing room composition, objects, people, buildings, and trees visible
through windows. Our approach yields state of the art view synthesis
techniques, operates on low dynamic range imagery, and is robust to geometric
and calibration errors.
- Abstract(参考訳): ハンドヘルドRGBDセンサによる新しいビュー合成と環境再構築の二重問題に対処する。
私たちの貢献には
1)高スペックなオブジェクトのモデリング
2)反射とフレネル効果のモデル化、及び
3) 形状の復元だけで同じ入力で表面光電界再構成が可能となる。
シーン表面が鏡のような素材成分が強い場合、窓から見える室内構成、物、人、建物、木を露呈し、高度に詳細な環境画像を生成する。
提案手法は, アートビュー合成技術の現状を生かし, 低ダイナミックレンジ画像で動作し, 幾何学的および校正誤差に頑健である。
関連論文リスト
- MaterialRefGS: Reflective Gaussian Splatting with Multi-view Consistent Material Inference [83.38607296779423]
より物理的な環境モデルを用いた多視点一貫した物質推定がガウススプラッティングによる正確な反射の学習の鍵となることを示す。
本手法は照明と幾何学の両方を忠実に復元し,新しいビュー合成における最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-10-13T13:29:20Z) - 3D Gaussian Flats: Hybrid 2D/3D Photometric Scene Reconstruction [62.84879632157956]
本研究では,平面平面(2D)ガウスと自由形式(3D)ガウスを連立最適化するハイブリッド2D/3D表現を提案する。
我々のエンドツーエンドアプローチは、平面領域を動的に検出・洗練し、視覚的忠実度と幾何学的精度の両方を改善する。
ScanNet++とScanNetv2の最先端の深さ推定を実現し、特定のカメラモデルに過度に適合することなくメッシュ抽出に優れる。
論文 参考訳(メタデータ) (2025-09-19T21:04:36Z) - TexHOI: Reconstructing Textures of 3D Unknown Objects in Monocular Hand-Object Interaction Scenes [6.753687000933386]
本研究では,物体の表面アルベドに対する環境可視性と間接照明に対する手の影響を予測する新しいアプローチを提案する。
本手法はテクスチャ再構築における最先端手法を超越した手法であり,我々の知る限り,オブジェクトテクスチャ再構築における手動インタラクションを初めて考慮した手法である。
論文 参考訳(メタデータ) (2025-01-07T04:40:55Z) - AniSDF: Fused-Granularity Neural Surfaces with Anisotropic Encoding for High-Fidelity 3D Reconstruction [55.69271635843385]
AniSDF(AniSDF)は,高忠実度3次元再構成のための物理に基づく符号化による融合粒度ニューラルサーフェスを学習する新しいアプローチである。
本手法は, 幾何再構成と新規ビュー合成の両面において, SDF法の品質を飛躍的に向上させる。
論文 参考訳(メタデータ) (2024-10-02T03:10:38Z) - OpenMaterial: A Large-scale Dataset of Complex Materials for 3D Reconstruction [55.052637670485716]
材料認識型3D再構成のための大規模半合成データセットであるOpenMaterialを紹介する。
導体、誘電体、プラスチックを含む295の異なる材料にまたがる1,001の物体と、その粗い変種が含まれ、714の異なる照明条件下で捕獲される。
マルチビュー画像、3D形状モデル、カメラポーズ、深度マップ、およびオブジェクトマスクを提供し、挑戦的な材料上で3D再構成を評価するための最初の広範囲なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-13T07:46:17Z) - UniSDF: Unifying Neural Representations for High-Fidelity 3D Reconstruction of Complex Scenes with Reflections [87.191742674543]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築し,全体的な性能を向上する。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - Holistic Inverse Rendering of Complex Facade via Aerial 3D Scanning [38.72679977945778]
我々は多視点空中画像を用いて、ニューラルサイン距離場(SDF)を用いたファサードの形状、照明、材料を再構成する。
本実験は, ファサード全体の逆レンダリング, 新規なビュー合成, シーン編集において, 最先端のベースラインと比較して, 手法の優れた品質を示すものである。
論文 参考訳(メタデータ) (2023-11-20T15:03:56Z) - Ghost on the Shell: An Expressive Representation of General 3D Shapes [97.76840585617907]
リアルな素材と照明で高速な物理ベースのレンダリングを可能にするので、メッシュは魅力的だ。
近年の3次元形状の再構成と統計的モデリングの研究は、メッシュをトポロジカルに非フレキシブルであると批判している。
我々は水密面上の多様体符号距離場を定義することにより開曲面をパラメータ化する。
G-Shellは、非水密メッシュ再構築および生成タスクにおける最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-10-23T17:59:52Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - Multi-View Neural Surface Reconstruction with Structured Light [7.709526244898887]
微分可能レンダリング(DR)に基づく3次元オブジェクト再構成はコンピュータビジョンにおいて活発な研究課題である。
DRに基づく多視点3Dオブジェクト再構成において,構造化光(SL)を用いたアクティブセンシングを導入し,任意のシーンやカメラポーズの未知の形状と外観を学習する。
本手法は, テクスチャレス領域における高い再現精度を実現し, カメラポーズキャリブレーションの労力を削減する。
論文 参考訳(メタデータ) (2022-11-22T03:10:46Z) - PhotoScene: Photorealistic Material and Lighting Transfer for Indoor
Scenes [84.66946637534089]
PhotoSceneは、シーンの入力画像を取得し、高品質な素材と同様の照明を備えたフォトリアリスティックデジタルツインを構築するフレームワークである。
プロシージャ素材グラフを用いてシーン素材をモデル化し、そのようなグラフはフォトリアリスティックおよび解像度非依存の材料を表す。
ScanNet, SUN RGB-D, ストック写真からのオブジェクトとレイアウトの再構築について検討し, 高品質で完全に再現可能な3Dシーンを再現できることを実証した。
論文 参考訳(メタデータ) (2022-07-02T06:52:44Z) - Shape and Reflectance Reconstruction in Uncontrolled Environments by
Differentiable Rendering [27.41344744849205]
従来のハンドヘルドカメラを用いた多視点写真からシーンの3次元形状と反射率を再構築する効率的な手法を提案する。
また,本手法は,新しい視点の視覚的合成と定量化において,最先端の代替手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-25T14:09:10Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z) - Multiview Neural Surface Reconstruction by Disentangling Geometry and
Appearance [46.488713939892136]
我々は、未知の幾何学、カメラパラメータ、および表面からカメラに向かって反射された光を近似するニューラルネットワークを同時に学習するニューラルネットワークを導入する。
我々は、DTU MVSデータセットから、異なる素材特性、照明条件、ノイズの多いカメラ素材を実世界の2D画像でトレーニングした。
論文 参考訳(メタデータ) (2020-03-22T10:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。