論文の概要: Novel 3D Scene Understanding Applications From Recurrence in a Single
Image
- arxiv url: http://arxiv.org/abs/2210.07991v1
- Date: Fri, 14 Oct 2022 17:45:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:10:31.103965
- Title: Novel 3D Scene Understanding Applications From Recurrence in a Single
Image
- Title(参考訳): 単一画像における再帰からの新たな3次元シーン理解アプリケーション
- Authors: Shimian Zhang, Skanda Bharadwaj, Keaton Kraiger, Yashasvi Asthana,
Hong Zhang, Robert Collins, Yanxi Liu
- Abstract要約: 3次元シーンの空間的理解のための1つの画像から繰り返しパターンを発見することの有用性を実証する。
より正確で定量的なシーン記述を実現するために,RP発見出力の活用の可能性を示す。
- 参考スコア(独自算出の注目度): 3.3730108203888602
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate the utility of recurring pattern discovery from a single image
for spatial understanding of a 3D scene in terms of (1) vanishing point
detection, (2) hypothesizing 3D translation symmetry and (3) counting the
number of RP instances in the image.
Furthermore, we illustrate the feasibility of leveraging RP discovery output
to form a more precise, quantitative text description of the scene. Our
quantitative evaluations on a new 1K+ Recurring Pattern (RP) benchmark with
diverse variations show that visual perception of recurrence from one single
view leads to scene understanding outcomes that are as good as or better than
existing supervised methods and/or unsupervised methods that use millions of
images.
- Abstract(参考訳): 本研究では,(1)点検出,(2)3次元翻訳対称性の仮説化,(3)画像中のRPインスタンス数のカウントという観点から,単一画像からのパターン発見を空間的に理解するための有効性を示す。
さらに,より正確で定量的なシーン記述を実現するために,RP発見出力を活用する可能性について述べる。
新しい1K+再帰パターン(RP)ベンチマークの定量的評価により,1つの視点から繰り返しの視覚的知覚が,既存の教師付き手法や,何百万もの画像を使用する教師なし手法に匹敵する場面理解結果をもたらすことが示された。
関連論文リスト
- Learning to Generate 3D Representations of Building Roofs Using
Single-View Aerial Imagery [68.3565370706598]
本研究では,空撮画像から建物屋根メッシュの条件分布を学習するための新しいパイプラインを提案する。
同一物体の複数の画像を必要とする代替手法とは違って,本手法では,一つの画像のみを用いて予測を行う3次元屋根メッシュを推定できる。
論文 参考訳(メタデータ) (2023-03-20T15:47:05Z) - Multi-view object pose estimation from correspondence distributions and
epipolar geometry [0.0]
本稿では,学習した2D-3D分布を,初期推定と任意修正の両方のために複数の視点から集約する多視点ポーズ推定手法を提案する。
提案手法は,最も優れた単一視点法と比較して,ポーズ推定誤差を80~91%削減する。
論文 参考訳(メタデータ) (2022-10-03T13:30:40Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - Neural Groundplans: Persistent Neural Scene Representations from a
Single Image [90.04272671464238]
本稿では,シーンの2次元画像観察を永続的な3次元シーン表現にマッピングする手法を提案する。
本稿では,永続的でメモリ効率のよいシーン表現として,条件付きニューラルグラウンドプランを提案する。
論文 参考訳(メタデータ) (2022-07-22T17:41:24Z) - NeurAR: Neural Uncertainty for Autonomous 3D Reconstruction [64.36535692191343]
暗黙の神経表現はオフラインの3D再構成において魅力的な結果を示しており、オンラインSLAMシステムの可能性も最近示している。
本論文は,1)新しい表現に基づく視点計画の質を評価するための基準を求めること,2)手作りではなく,異なる場面に一般化可能なデータから基準を学習すること,の2つの課題に対処する。
本手法は, TSDFを用いた変形モデルやビュープランニングなしでの再構成モデルと比較した場合, レンダリングされた画像品質と再構成された3次元モデルの幾何学的品質について, 様々な指標について有意な改善を示す。
論文 参考訳(メタデータ) (2022-07-22T10:05:36Z) - 2D GANs Meet Unsupervised Single-view 3D Reconstruction [21.93671761497348]
事前訓練されたGANに基づく制御可能な画像生成は、幅広いコンピュータビジョンタスクに役立てることができる。
本稿では,GAN生成した多視点画像から2次元の監視を活用できる新しい画像条件のニューラル暗黙界を提案する。
提案手法の有効性は,ジェネリックオブジェクトのより優れた1次元3次元再構成結果によって示される。
論文 参考訳(メタデータ) (2022-07-20T20:24:07Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - Unsupervised View-Invariant Human Posture Representation [28.840986167408037]
本研究では、2次元画像からビュー不変な3次元ポーズ表現を抽出することを学ぶ新しい教師なしアプローチを提案する。
本モデルは,同時フレーム間の人間のポーズの内在的なビュー不変性を活用することで訓練される。
RGB画像と深度画像の非教師なしのクロスビュー動作分類精度の改善を示す。
論文 参考訳(メタデータ) (2021-09-17T19:23:31Z) - Unsupervised Discovery of Object Radiance Fields [86.20162437780671]
Object Radiance Fields (uORF)は、複雑なシーンを1つの画像から多様でテクスチャ化された背景で分解することを学ぶ。
教師なしの3次元シーンセグメンテーション、新しいビュー合成、および3つのデータセットのシーン編集において、uORFが優れていることを示す。
論文 参考訳(メタデータ) (2021-07-16T13:53:36Z) - Weakly-Supervised Multi-Face 3D Reconstruction [45.864415499303405]
多面的3D再構築のための効果的なエンドツーエンドフレームワークを提案する。
各画像の再構成された顔に対して、同じグローバルカメラモデルを採用し、3dシーンにおける相対的な頭部位置と向きを復元することができる。
論文 参考訳(メタデータ) (2021-01-06T13:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。