論文の概要: OASIS: A Large-Scale Dataset for Single Image 3D in the Wild
- arxiv url: http://arxiv.org/abs/2007.13215v1
- Date: Sun, 26 Jul 2020 20:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 20:01:12.796324
- Title: OASIS: A Large-Scale Dataset for Single Image 3D in the Wild
- Title(参考訳): OASIS: 野生のシングルイメージ3Dのための大規模データセット
- Authors: Weifeng Chen, Shengyi Qian, David Fan, Noriyuki Kojima, Max Hamilton,
Jia Deng
- Abstract要約: 我々は,140,000枚の画像に対して,詳細な3D形状のアノテーションを付加したワンイメージ3DのデータセットであるOpen s of Single Image Surfaces (OASIS)を提示する。
我々は、様々な単一画像の3Dタスクで先行モデルを訓練し、評価する。
- 参考スコア(独自算出の注目度): 48.76043720428693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-view 3D is the task of recovering 3D properties such as depth and
surface normals from a single image. We hypothesize that a major obstacle to
single-image 3D is data. We address this issue by presenting Open Annotations
of Single Image Surfaces (OASIS), a dataset for single-image 3D in the wild
consisting of annotations of detailed 3D geometry for 140,000 images. We train
and evaluate leading models on a variety of single-image 3D tasks. We expect
OASIS to be a useful resource for 3D vision research. Project site:
https://pvl.cs.princeton.edu/OASIS.
- Abstract(参考訳): シングルビュー3Dは、深度や表面の正常といった3D特性を単一の画像から回収するタスクである。
シングルイメージ3dへの大きな障害はデータである、と仮定します。
この問題に対処するために,140,000枚の画像の詳細な3D形状のアノテーションからなる,ワンイメージ3DのデータセットであるOpen Annotations of Single Image Surfaces (OASIS)を提示する。
我々は、様々な単一画像3dタスクで先行モデルを訓練し、評価する。
我々は,oasisが3次元視覚研究に有用な資源になることを期待する。
プロジェクトサイト:https://pvl.cs.princeton.edu/OASIS
関連論文リスト
- Free3D: Consistent Novel View Synthesis without 3D Representation [75.52709432844759]
Free3Dは、単一画像からのオープンセットノベルビュー合成(NVS)のために設計されたシンプルなアプローチである。
一般化のための2次元画像生成装置の事前訓練から始まり、NVS向けに微調整する。
近年の作業と比較すると、明示的な3D表現に頼ることなく、大幅な改善が得られている。
論文 参考訳(メタデータ) (2023-12-07T18:59:18Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - 3D-LLM: Injecting the 3D World into Large Language Models [60.43823088804661]
大規模言語モデル (LLM) と視覚言語モデル (VLM) は、常識推論のような複数のタスクで優れていることが証明されている。
本稿では,大規模言語モデルに3Dワールドを注入し,新しい3D-LLMのファミリーを導入することを提案する。
具体的には、3D-LLMは3Dポイントクラウドとその機能を入力として取り込んで、さまざまな3D関連タスクを実行することができる。
論文 参考訳(メタデータ) (2023-07-24T17:59:02Z) - Learning 3D Scene Priors with 2D Supervision [37.79852635415233]
本研究では,3次元の地平を必要とせず,レイアウトや形状の3次元シーンを学習するための新しい手法を提案する。
提案手法は, 3次元シーンを潜在ベクトルとして表現し, クラスカテゴリを特徴とするオブジェクト列に段階的に復号化することができる。
3D-FRONT と ScanNet による実験により,本手法は単一視点再構成における技術状況よりも優れていた。
論文 参考訳(メタデータ) (2022-11-25T15:03:32Z) - HoW-3D: Holistic 3D Wireframe Perception from a Single Image [32.64960303211405]
本稿では, ホロスティック2次元画像における3次元ワイヤフレーム認識(Ho-3D)の問題点について検討する。
オブジェクトは単一のビューから直接観察できないため、オブジェクトは単一のビューから直接観察することはできない。
論文 参考訳(メタデータ) (2022-08-15T04:05:41Z) - Learning 3D Object Shape and Layout without 3D Supervision [26.575177430506667]
3Dシーンはオブジェクトのセットで構成され、それぞれが空間における位置を与える形状とレイアウトを持つ。
本研究では,物体の3次元形状とレイアウトを,地平面形状やレイアウト情報なしで予測する手法を提案する。
我々のアプローチは、より小さく、より多様なデータセットで訓練された教師ありアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-06-14T17:49:44Z) - Weakly Supervised Volumetric Image Segmentation with Deformed Templates [80.04326168716493]
対象対象物の表面にスパースな3次元点のセットのみを提供する必要があるという意味で、真に弱い教師付きアプローチを提案する。
監督コストの削減により、3Dの弱スーパービジョンに対する従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T22:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。