論文の概要: OASIS: A Large-Scale Dataset for Single Image 3D in the Wild
- arxiv url: http://arxiv.org/abs/2007.13215v1
- Date: Sun, 26 Jul 2020 20:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 20:01:12.796324
- Title: OASIS: A Large-Scale Dataset for Single Image 3D in the Wild
- Title(参考訳): OASIS: 野生のシングルイメージ3Dのための大規模データセット
- Authors: Weifeng Chen, Shengyi Qian, David Fan, Noriyuki Kojima, Max Hamilton,
Jia Deng
- Abstract要約: 我々は,140,000枚の画像に対して,詳細な3D形状のアノテーションを付加したワンイメージ3DのデータセットであるOpen s of Single Image Surfaces (OASIS)を提示する。
我々は、様々な単一画像の3Dタスクで先行モデルを訓練し、評価する。
- 参考スコア(独自算出の注目度): 48.76043720428693
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-view 3D is the task of recovering 3D properties such as depth and
surface normals from a single image. We hypothesize that a major obstacle to
single-image 3D is data. We address this issue by presenting Open Annotations
of Single Image Surfaces (OASIS), a dataset for single-image 3D in the wild
consisting of annotations of detailed 3D geometry for 140,000 images. We train
and evaluate leading models on a variety of single-image 3D tasks. We expect
OASIS to be a useful resource for 3D vision research. Project site:
https://pvl.cs.princeton.edu/OASIS.
- Abstract(参考訳): シングルビュー3Dは、深度や表面の正常といった3D特性を単一の画像から回収するタスクである。
シングルイメージ3dへの大きな障害はデータである、と仮定します。
この問題に対処するために,140,000枚の画像の詳細な3D形状のアノテーションからなる,ワンイメージ3DのデータセットであるOpen Annotations of Single Image Surfaces (OASIS)を提示する。
我々は、様々な単一画像3dタスクで先行モデルを訓練し、評価する。
我々は,oasisが3次元視覚研究に有用な資源になることを期待する。
プロジェクトサイト:https://pvl.cs.princeton.edu/OASIS
関連論文リスト
- ImageNet3D: Towards General-Purpose Object-Level 3D Understanding [20.837297477080945]
汎用オブジェクトレベルの3D理解のための大規模データセットであるImageNet3Dを提案する。
ImageNet3Dは、ImageNetデータセットから2Dバウンディングボックス、3Dポーズ、3D位置アノテーション、3D情報でインターリーブされた画像キャプションを含む200のカテゴリを追加している。
我々は,標準分類とポーズ推定に加えて,オブジェクトレベルの3D認識とオープン語彙のポーズ推定という2つの新しいタスクを検討する。
論文 参考訳(メタデータ) (2024-06-13T22:44:26Z) - SYM3D: Learning Symmetric Triplanes for Better 3D-Awareness of GANs [5.84660008137615]
SYM3Dは、自然と人造の物体で見られる主観対称性構造を活用するために設計された、新しい3D対応のGANである。
単視点画像のみを訓練しても, 詳細な形状やテクスチャを捉える上で, 優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-10T16:24:07Z) - CAT3D: Create Anything in 3D with Multi-View Diffusion Models [87.80820708758317]
CAT3D(CAT3D)は,この実世界のキャプチャプロセスを多視点拡散モデルでシミュレートし,任意のものを3Dで作成する手法である。
CAT3Dは1分で3Dシーン全体を作成できる。
論文 参考訳(メタデータ) (2024-05-16T17:59:05Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Uni3D: Exploring Unified 3D Representation at Scale [66.26710717073372]
大規模に統一された3次元表現を探索する3次元基礎モデルであるUni3Dを提案する。
Uni3Dは、事前にトレーニングされた2D ViTのエンドツーエンドを使用して、3Dポイントクラウド機能と画像テキスト整列機能とを一致させる。
強力なUni3D表現は、野生での3D絵画や検索などの応用を可能にする。
論文 参考訳(メタデータ) (2023-10-10T16:49:21Z) - 3D-LLM: Injecting the 3D World into Large Language Models [60.43823088804661]
大規模言語モデル (LLM) と視覚言語モデル (VLM) は、常識推論のような複数のタスクで優れていることが証明されている。
本稿では,大規模言語モデルに3Dワールドを注入し,新しい3D-LLMのファミリーを導入することを提案する。
具体的には、3D-LLMは3Dポイントクラウドとその機能を入力として取り込んで、さまざまな3D関連タスクを実行することができる。
論文 参考訳(メタデータ) (2023-07-24T17:59:02Z) - 3D Reconstruction of Objects in Hands without Real World 3D Supervision [12.70221786947807]
ハンドヘルドオブジェクトを再構築するためのモデル学習をスケールアップするために,3Dインスペクションを活用するモジュールを提案する。
具体的には、ビデオから多視点2Dマスクの監視を抽出し、形状収集から3次元形状の前兆を抽出する。
我々はこれらの間接的な3次元キューを用いて、単一のRGB画像から物体の3次元形状を予測する占有ネットワークを訓練する。
論文 参考訳(メタデータ) (2023-05-04T17:56:48Z) - HoW-3D: Holistic 3D Wireframe Perception from a Single Image [32.64960303211405]
本稿では, ホロスティック2次元画像における3次元ワイヤフレーム認識(Ho-3D)の問題点について検討する。
オブジェクトは単一のビューから直接観察できないため、オブジェクトは単一のビューから直接観察することはできない。
論文 参考訳(メタデータ) (2022-08-15T04:05:41Z) - Weakly Supervised Volumetric Image Segmentation with Deformed Templates [80.04326168716493]
対象対象物の表面にスパースな3次元点のセットのみを提供する必要があるという意味で、真に弱い教師付きアプローチを提案する。
監督コストの削減により、3Dの弱スーパービジョンに対する従来のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-07T22:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。