論文の概要: Recognizing Scenes from Novel Viewpoints
- arxiv url: http://arxiv.org/abs/2112.01520v1
- Date: Thu, 2 Dec 2021 18:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 17:01:01.421406
- Title: Recognizing Scenes from Novel Viewpoints
- Title(参考訳): 斬新な視点から場面を認識する
- Authors: Shengyi Qian, Alexander Kirillov, Nikhila Ravi, Devendra Singh
Chaplot, Justin Johnson, David F. Fouhey, Georgia Gkioxari
- Abstract要約: 人間は、少数の2Dビューから3Dのシーンを知覚することができる。AIエージェントは、少数の画像しか持たない任意の視点からシーンを認識することで、シーンとそのオブジェクトと効率的に対話することができる。
本稿では,新しいシーンのいくつかのRGB画像を入力として取り込んで,そのシーンを意味カテゴリーに分類することで,新たな視点から認識するモデルを提案する。
- 参考スコア(独自算出の注目度): 99.90914180489456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can perceive scenes in 3D from a handful of 2D views. For AI agents,
the ability to recognize a scene from any viewpoint given only a few images
enables them to efficiently interact with the scene and its objects. In this
work, we attempt to endow machines with this ability. We propose a model which
takes as input a few RGB images of a new scene and recognizes the scene from
novel viewpoints by segmenting it into semantic categories. All this without
access to the RGB images from those views. We pair 2D scene recognition with an
implicit 3D representation and learn from multi-view 2D annotations of hundreds
of scenes without any 3D supervision beyond camera poses. We experiment on
challenging datasets and demonstrate our model's ability to jointly capture
semantics and geometry of novel scenes with diverse layouts, object types and
shapes.
- Abstract(参考訳): 人間は、いくつかの2dビューから3dでシーンを認識できる。
AIエージェントでは、少数の画像のみを与えられた任意の視点からシーンを認識することで、シーンとそのオブジェクトと効率的に対話することができる。
本研究では,この能力で機械を授けようとする。
本稿では,新しいシーンのrgb画像をいくつか入力し,そのシーンを意味カテゴリーに分割して新たな視点から認識するモデルを提案する。
これらのビューからRGB画像にアクセスできない。
暗黙的な3D表現と2Dシーン認識を組み合わせて、カメラポーズ以外の3D監督なしに、何百ものシーンのマルチビュー2Dアノテーションから学習する。
我々はデータセットに挑戦する実験を行い、様々なレイアウト、オブジェクトタイプ、形状を持つ新しいシーンのセマンティクスと幾何を一緒にキャプチャする能力を実証する。
関連論文リスト
- Lift3D: Zero-Shot Lifting of Any 2D Vision Model to 3D [95.14469865815768]
2Dビジョンモデルは、大規模な2D画像データセットによって実現されるセマンティックセグメンテーション、スタイル転送、シーン編集に使用できる。
しかし、シーン編集のような単一の2Dビジョン演算子を3Dに拡張するには、通常、そのタスクに特化した非常に創造的な方法が必要である。
本稿では,いくつかの視覚モデルによって生成された特徴空間の未知のビューを予測するためのLift3Dを提案する。
問題のあるタスクに特化した最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2024-03-27T18:13:16Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Viewpoint Textual Inversion: Discovering Scene Representations and 3D View Control in 2D Diffusion Models [4.036372578802888]
安定拡散のようなモデルのテキスト埋め込み空間において,特定の3次元シーン表現が符号化されていることを示す。
我々は,3次元視覚タスク,すなわちビュー制御されたテキスト・ツー・イメージ生成,および単一画像からの新規なビュー合成に3次元シーン表現を利用する。
論文 参考訳(メタデータ) (2023-09-14T18:52:16Z) - SceneDreamer: Unbounded 3D Scene Generation from 2D Image Collections [49.802462165826554]
SceneDreamerは,非有界な3次元シーンの無条件生成モデルである。
フレームワークは,3Dアノテーションを使わずに,Wild 2Dイメージコレクションのみから学習する。
論文 参考訳(メタデータ) (2023-02-02T18:59:16Z) - One-Shot Neural Fields for 3D Object Understanding [112.32255680399399]
ロボット工学のための統一的でコンパクトなシーン表現を提案する。
シーン内の各オブジェクトは、幾何学と外観をキャプチャする潜在コードによって描写される。
この表現は、新しいビューレンダリングや3D再構成、安定した把握予測といった様々なタスクのためにデコードできる。
論文 参考訳(メタデータ) (2022-10-21T17:33:14Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - Curiosity-driven 3D Scene Structure from Single-image Self-supervision [22.527696847086574]
これまでの研究は、孤立した3Dオブジェクトを2Dのみの自己スーパービジョンから学習することを実証してきた。
ここでは、複数のオブジェクトで構成された3Dシーン全体(位置、向き、型など)に拡張することにしました。
得られたシステムは、異なる仮想または実画像の2D画像を完全な3Dシーンに変換し、それらのシーンの2D画像からのみ学習する。
論文 参考訳(メタデータ) (2020-12-02T14:17:16Z) - Indoor Scene Recognition in 3D [26.974703983293093]
既存のアプローチでは、2D画像や2.5Dレンジ画像に基づいてシーンを分類しようとする。
本稿では3Dポイントクラウド(またはボクセル)データからのシーン認識について検討する。
本研究では,2次元鳥眼の視線に基づく手法よりも優れることを示す。
論文 参考訳(メタデータ) (2020-02-28T15:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。