論文の概要: Fast-Image2Point: Towards Real-Time Point Cloud Reconstruction of a
Single Image using 3D Supervision
- arxiv url: http://arxiv.org/abs/2209.10029v1
- Date: Tue, 20 Sep 2022 22:39:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-22 16:18:00.176423
- Title: Fast-Image2Point: Towards Real-Time Point Cloud Reconstruction of a
Single Image using 3D Supervision
- Title(参考訳): Fast-Image2Point:3次元スーパービジョンを用いた単一画像のリアルタイムクラウド再構築に向けて
- Authors: AmirHossein Zamani, Amir G. Aghdam and Kamran Ghaffari T
- Abstract要約: 3D再構成の問題は、3Dオブジェクトをモデル化するための機械やロボットの訓練方法である。
本研究では、より高速(リアルタイム)な単一視点画像で表示されたオブジェクトを再構築する際の現在の問題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key question in the problem of 3D reconstruction is how to train a machine
or a robot to model 3D objects. Many tasks like navigation in real-time systems
such as autonomous vehicles directly depend on this problem. These systems
usually have limited computational power. Despite considerable progress in 3D
reconstruction systems in recent years, applying them to real-time systems such
as navigation systems in autonomous vehicles is still challenging due to the
high complexity and computational demand of the existing methods. This study
addresses current problems in reconstructing objects displayed in a single-view
image in a faster (real-time) fashion. To this end, a simple yet powerful deep
neural framework is developed. The proposed framework consists of two
components: the feature extractor module and the 3D generator module. We use
point cloud representation for the output of our reconstruction module. The
ShapeNet dataset is utilized to compare the method with the existing results in
terms of computation time and accuracy. Simulations demonstrate the superior
performance of the proposed method.
Index Terms-Real-time 3D reconstruction, single-view reconstruction,
supervised learning, deep neural network
- Abstract(参考訳): 3D再構成の問題は、3Dオブジェクトをモデル化するための機械やロボットの訓練方法である。
自動運転車のようなリアルタイムシステムのナビゲーションのような多くのタスクは、この問題に直接依存する。
これらのシステムは通常、計算能力に制限がある。
近年の3次元再構築システムの進歩にもかかわらず、既存の手法の複雑さと計算要求が高いため、自動運転車のナビゲーションシステムのようなリアルタイムシステムに適用することは依然として困難である。
本研究では、より高速(リアルタイム)な単一視点画像で表示されたオブジェクトの再構成における現在の問題に対処する。
この目的のために、シンプルで強力なディープニューラルネットワークフレームワークが開発されている。
提案するフレームワークは,特徴抽出モジュールと3Dジェネレータモジュールの2つのコンポーネントで構成されている。
再建モジュールの出力にはポイントクラウド表現を使用します。
ShapeNetデータセットを使用して、計算時間と精度の点で既存の結果と比較する。
シミュレーションにより提案手法の優れた性能を示す。
インデックス項-リアルタイム3D再構成、一視点再構成、教師付き学習、ディープニューラルネットワーク
関連論文リスト
- HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - Multi-Modal 3D Mesh Reconstruction from Images and Text [7.9471205712560264]
少ない入力画像から3Dメッシュを再構成する言語誘導型少数ショット3D再構成法を提案する。
テクスチャとテクスチャの精度と品質の観点から,本手法の評価を行った。
論文 参考訳(メタデータ) (2025-03-10T11:18:17Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - FvOR: Robust Joint Shape and Pose Optimization for Few-view Object
Reconstruction [37.81077373162092]
数枚の画像から正確な3Dオブジェクトモデルを再構築することは、コンピュータビジョンにおいて難しい問題である。
FvORは、ノイズの多い入力ポーズを持つ数枚の画像から正確な3Dモデルを予測する学習ベースのオブジェクト再構成手法である。
論文 参考訳(メタデータ) (2022-05-16T15:39:27Z) - 3D Reconstruction Using a Linear Laser Scanner and a Camera [5.733401663293044]
本研究は, 基本的な3次元再構成技術について, 体系的に検討する。
線形レーザースキャナー、カメラ、ターンテーブルを使って簡単に実装できる。
点雲の結果の精度と解像度はかなり満足している。
論文 参考訳(メタデータ) (2021-12-01T15:20:24Z) - Deep3DPose: Realtime Reconstruction of Arbitrarily Posed Human Bodies
from Single RGB Images [5.775625085664381]
本研究では,3次元人間のポーズを正確に再構築し,単一画像から詳細な3次元フルボディ幾何モデルをリアルタイムに構築する手法を提案する。
このアプローチの鍵となるアイデアは、単一のイメージを使用して5つの出力を同時に予測する、新しいエンドツーエンドのマルチタスクディープラーニングフレームワークである。
本研究では,3次元人体フロンティアを進化させ,定量的評価と最先端手法との比較により,単一画像からの再構築を図っている。
論文 参考訳(メタデータ) (2021-06-22T04:26:11Z) - SAIL-VOS 3D: A Synthetic Dataset and Baselines for Object Detection and
3D Mesh Reconstruction from Video Data [124.2624568006391]
sail-vos 3d: フレーム毎のメッシュアノテーションを備えた合成ビデオデータセット。
また,時間モデルによる映像データから3次元メッシュを再構成するための最初のベースラインを開発した。
論文 参考訳(メタデータ) (2021-05-18T15:42:37Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Amodal 3D Reconstruction for Robotic Manipulation via Stability and
Connectivity [3.359622001455893]
学習に基づく3Dオブジェクト再構成により、3Dオブジェクトモデルの単一または少数ショット推定が可能となる。
既存の3D再構成技術は、通常、シャムファー距離またはボクセルIOUによって測定される視覚的再構成忠実度を最適化する。
本稿では,オブジェクト形状よりも先に安定性を導入するアモーダル3D再構成システムARMと,接続前の接続,マルチチャネル入力表現を提案する。
論文 参考訳(メタデータ) (2020-09-28T08:52:54Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z) - From Image Collections to Point Clouds with Self-supervised Shape and
Pose Networks [53.71440550507745]
2次元画像から3Dモデルを再構成することは、コンピュータビジョンの基本的な問題の一つである。
本研究では,1枚の画像から3次元オブジェクトを再構成する深層学習手法を提案する。
我々は,3次元点雲の再構成と推定ネットワークの自己教師方式の両方を学習する。
論文 参考訳(メタデータ) (2020-05-05T04:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。