論文の概要: Ray-ONet: Efficient 3D Reconstruction From A Single RGB Image
- arxiv url: http://arxiv.org/abs/2107.01899v1
- Date: Mon, 5 Jul 2021 09:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 19:19:15.964828
- Title: Ray-ONet: Efficient 3D Reconstruction From A Single RGB Image
- Title(参考訳): Ray-ONet:1枚のRGB画像から効率的な3D再構成
- Authors: Wenjing Bian and Zirui Wang and Kejie Li and Victor Adrian Prisacariu
- Abstract要約: モノクロ画像から詳細な3Dモデルを効率的に再構成するためのRay-ONetを提案する。
カメラ座標の画素からバックプロジェクションされた光線に沿った一連の占有確率を予測することにより、我々の方法であるRay-ONetは、Occupancy Networks (ONet)と比較して再構成精度を向上させる。
- 参考スコア(独自算出の注目度): 16.21925131245367
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We propose Ray-ONet to reconstruct detailed 3D models from monocular images
efficiently. By predicting a series of occupancy probabilities along a ray that
is back-projected from a pixel in the camera coordinate, our method Ray-ONet
improves the reconstruction accuracy in comparison with Occupancy Networks
(ONet), while reducing the network inference complexity to O($N^2$). As a
result, Ray-ONet achieves state-of-the-art performance on the ShapeNet
benchmark with more than 20$\times$ speed-up at $128^3$ resolution and
maintains a similar memory footprint during inference.
- Abstract(参考訳): 単眼画像から詳細な3次元モデルを効率的に再構成するためのray-onetを提案する。
カメラ座標の画素からバックプロジェクションされた光線に沿った一連の占有確率を予測することにより,Occupancy Networks (ONet) と比較して再構成精度を向上させるとともに,ネットワーク推論の複雑さをO($N^2$)に低減する。
その結果、Ray-ONetはShapeNetベンチマークで20$\times$のスピードアップを128^3$の解像度で達成し、推論中に同様のメモリフットプリントを維持する。
関連論文リスト
- Splatter Image: Ultra-Fast Single-View 3D Reconstruction [76.38261311948649]
Splatter Imageは,38FPSで動作するモノクローナル3次元オブジェクト再構成のための超高速なアプローチである。
Splatter ImageはGaussian Splattingをベースにしており、リアルタイムレンダリング、高速トレーニング、マルチビュー再構築に優れたスケーリングを実現している。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - pixelSplat: 3D Gaussian Splats from Image Pairs for Scalable
Generalizable 3D Reconstruction [29.192847542384712]
pixelSplatは、画像のペアから3次元ガウスプリミティブによってパラメータ化された3次元放射界の再構成を学ぶフィードフォワードモデルである。
我々のモデルは、スケーラブルなトレーニングのためのリアルタイム・メモリ効率のレンダリングと、推論時の高速な3次元再構成を特徴としている。
論文 参考訳(メタデータ) (2023-12-19T17:03:50Z) - SplaTAM: Splat, Track & Map 3D Gaussians for Dense RGB-D SLAM [50.60694084264132]
3Dガウシアンによるシーンの表現は、単一の単眼のRGB-Dカメラを用いて高密度SLAMを実現することができることを示す。
私たちはオンラインのトラッキングとマッピングのパイプラインを採用し、基礎となるガウス表現を特に使用するように調整しています。
実験により、SplaTAMは、カメラポーズ推定、マップ構築、ノベルビュー合成において、最先端の性能を最大2倍に向上することが示された。
論文 参考訳(メタデータ) (2023-12-04T18:53:24Z) - ConRad: Image Constrained Radiance Fields for 3D Generation from a
Single Image [15.997195076224312]
単一のRGB画像から3Dオブジェクトを再構成する新しい手法を提案する。
提案手法は,最新の画像生成モデルを用いて隠れた3次元構造を推定する。
我々の3D再構成は入力に忠実なままであり、より一貫性のある3Dモデルを生成することを示す。
論文 参考訳(メタデータ) (2023-11-09T09:17:10Z) - RayMVSNet++: Learning Ray-based 1D Implicit Fields for Accurate
Multi-View Stereo [21.209964556493368]
RayMVSNetは、シーン深度を示すゼロクロスポイントを用いて、各カメラ線に沿った1次元暗黙フィールドの逐次予測を学習する。
RayMVSNet++はScanNetデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-16T02:10:47Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - FIRe: Fast Inverse Rendering using Directional and Signed Distance
Functions [97.5540646069663]
指向性距離関数(DDF)と呼ばれる新しいニューラルシーン表現を導入する。
DDFは単位球上で定義され、任意の方向に沿って表面までの距離を予測する。
提案手法はDDFに基づいて,提案した深度マップから3次元形状を再構成する高速アルゴリズム (FIRe) を提案する。
論文 参考訳(メタデータ) (2022-03-30T13:24:04Z) - FIDNet: LiDAR Point Cloud Semantic Segmentation with Fully Interpolation
Decoding [5.599306291149907]
2次元球面領域画像上に点雲を投影すると、LiDARセマンティックセマンティックセマンティックセマンティクスがレンジ画像上の2次元セマンティクスタスクに変換される。
本稿では,新しいネットワーク構造と効率的な後処理ステップからなる投影型LiDARセマンティックセマンティックセマンティクスパイプラインを提案する。
我々のパイプラインは、40倍の2048$の解像度を持つプロジェクションベースのメソッドと、すべてのポイントワイズソリューションの中で、最高のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-09-08T17:20:09Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。