論文の概要: Stanford-ORB: A Real-World 3D Object Inverse Rendering Benchmark
- arxiv url: http://arxiv.org/abs/2310.16044v3
- Date: Wed, 17 Jan 2024 00:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 20:28:08.665456
- Title: Stanford-ORB: A Real-World 3D Object Inverse Rendering Benchmark
- Title(参考訳): Stanford-ORB: 現実世界の3Dオブジェクトの逆レンダリングベンチマーク
- Authors: Zhengfei Kuang, Yunzhi Zhang, Hong-Xing Yu, Samir Agarwala, Shangzhe
Wu, Jiajun Wu
- Abstract要約: Stanford-ORBは、新しい現実世界の3Dオブジェクト逆レンダリングベンチマークである。
近年の逆レンダリングの進歩により、3Dコンテンツ生成における幅広い現実世界の応用が可能となった。
- 参考スコア(独自算出の注目度): 31.357709524280022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Stanford-ORB, a new real-world 3D Object inverse Rendering
Benchmark. Recent advances in inverse rendering have enabled a wide range of
real-world applications in 3D content generation, moving rapidly from research
and commercial use cases to consumer devices. While the results continue to
improve, there is no real-world benchmark that can quantitatively assess and
compare the performance of various inverse rendering methods. Existing
real-world datasets typically only consist of the shape and multi-view images
of objects, which are not sufficient for evaluating the quality of material
recovery and object relighting. Methods capable of recovering material and
lighting often resort to synthetic data for quantitative evaluation, which on
the other hand does not guarantee generalization to complex real-world
environments. We introduce a new dataset of real-world objects captured under a
variety of natural scenes with ground-truth 3D scans, multi-view images, and
environment lighting. Using this dataset, we establish the first comprehensive
real-world evaluation benchmark for object inverse rendering tasks from
in-the-wild scenes, and compare the performance of various existing methods.
- Abstract(参考訳): 実世界の3Dオブジェクト逆レンダリングベンチマークであるStanford-ORBを紹介する。
最近の逆レンダリングの進歩により、3dコンテンツ生成における現実世界の幅広いアプリケーションが実現され、研究や商用のユースケースからコンシューマーデバイスへと急速に移行した。
結果は改善を続けているが、様々な逆レンダリングメソッドのパフォーマンスを定量的に評価し比較できる実世界のベンチマークは存在しない。
既存の現実世界のデータセットは、通常、オブジェクトの形状とマルチビューイメージのみで構成されており、素材の復元とオブジェクトのリライトの質を評価するには不十分である。
材料や照明を回収する手法は、しばしば合成データを用いて定量的評価を行うが、複雑な実環境への一般化は保証されない。
地上3Dスキャン,マルチビュー画像,環境照明など,様々な自然環境下で捉えた実世界のオブジェクトのデータセットを新たに導入する。
このデータセットを用いて,対象の逆レンダリングタスクの総合的な実世界評価ベンチマークを構築し,既存手法の性能を比較した。
関連論文リスト
- Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Anything-3D: Towards Single-view Anything Reconstruction in the Wild [61.090129285205805]
本稿では,一連の視覚言語モデルとSegment-Anythingオブジェクトセグメンテーションモデルを組み合わせた方法論的フレームワークであるAnything-3Dを紹介する。
提案手法では、BLIPモデルを用いてテキスト記述を生成し、Segment-Anythingモデルを用いて関心対象を効果的に抽出し、テキスト・画像拡散モデルを用いて物体を神経放射場へ持ち上げる。
論文 参考訳(メタデータ) (2023-04-19T16:39:51Z) - De-rendering 3D Objects in the Wild [21.16153549406485]
物体の1つの像を1つの形状に分解できる弱教師付き手法を提案する。
トレーニングでは、学習プロセスをブートストラップするために、トレーニング対象の粗い初期形状の推定にのみ依存する。
本実験では,2次元画像を3次元表現にデレンダリングし,未知のオブジェクトカテゴリに一般化できることを示す。
論文 参考訳(メタデータ) (2022-01-06T23:50:09Z) - Towards realistic symmetry-based completion of previously unseen point
clouds [0.43496401697112697]
対称オブジェクトに対してよく機能する新しいフレームワークを提案する。
学習ベースのアプローチとは異なり、提案するフレームワークはトレーニングデータを必要としない。
提案するフレームワークは,実世界の顧客スキャンのポイントクラウド完了において,最先端の効率性を実現することを実証する。
論文 参考訳(メタデータ) (2022-01-05T23:05:13Z) - ABO: Dataset and Benchmarks for Real-World 3D Object Understanding [43.42504014918771]
Amazon-Berkeley Objects (ABO)は、製品イメージと実際の家庭用オブジェクトに対応する3Dモデルの大規模なデータセットである。
合成オブジェクトをトレーニングした単一ビュー3D再構成ネットワークにおいて,ABOを用いてドメインギャップを測定する。
また、ABOのマルチビュー画像を用いて、異なるカメラ視点に対する最先端のメトリック学習アプローチの堅牢性を測定する。
論文 参考訳(メタデータ) (2021-10-12T17:52:42Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。