論文の概要: EvAC3D: From Event-based Apparent Contours to 3D Models via Continuous
Visual Hulls
- arxiv url: http://arxiv.org/abs/2304.05296v1
- Date: Tue, 11 Apr 2023 15:46:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:15:26.690547
- Title: EvAC3D: From Event-based Apparent Contours to 3D Models via Continuous
Visual Hulls
- Title(参考訳): evac3d: 連続視覚ハルによるイベントに基づく視輪郭から3次元モデルへ
- Authors: Ziyun Wang, Kenneth Chaney, Kostas Daniilidis
- Abstract要約: 複数ビューからの3D再構成は、複数のアプリケーションへのデプロイで成功したコンピュータビジョンフィールドである。
イベントカメラの低消費電力化と遅延化の両面から,イベントカメラの利点を生かした3次元再構成の問題点を考察する。
オブジェクトの見かけの輪郭の幾何学を定義する新しいイベントベース表現であるApparent Contour Events (ACE)を提案する。
- 参考スコア(独自算出の注目度): 46.94040300725127
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: 3D reconstruction from multiple views is a successful computer vision field
with multiple deployments in applications. State of the art is based on
traditional RGB frames that enable optimization of photo-consistency cross
views. In this paper, we study the problem of 3D reconstruction from
event-cameras, motivated by the advantages of event-based cameras in terms of
low power and latency as well as by the biological evidence that eyes in nature
capture the same data and still perceive well 3D shape. The foundation of our
hypothesis that 3D reconstruction is feasible using events lies in the
information contained in the occluding contours and in the continuous scene
acquisition with events. We propose Apparent Contour Events (ACE), a novel
event-based representation that defines the geometry of the apparent contour of
an object. We represent ACE by a spatially and temporally continuous implicit
function defined in the event x-y-t space. Furthermore, we design a novel
continuous Voxel Carving algorithm enabled by the high temporal resolution of
the Apparent Contour Events. To evaluate the performance of the method, we
collect MOEC-3D, a 3D event dataset of a set of common real-world objects. We
demonstrate the ability of EvAC3D to reconstruct high-fidelity mesh surfaces
from real event sequences while allowing the refinement of the 3D
reconstruction for each individual event.
- Abstract(参考訳): 複数ビューからの3D再構成は、複数のアプリケーションへのデプロイで成功したコンピュータビジョンフィールドである。
state of the artは、従来のrgbフレームをベースとして、フォトコンシスタンシークロスビューの最適化を可能にする。
本稿では, イベントカメラの低消費電力化, 遅延化, および自然界の目が同じデータを捉え, 良好な3次元形状を認識できるという生物学的証拠から, イベントカメラによる3次元再構成の問題点を考察する。
イベントを用いた3次元再構成が可能であるという仮説の基礎は、閉塞輪郭に含まれる情報とイベントによる連続的なシーン取得にある。
オブジェクトの見かけの輪郭の幾何学を定義する新しいイベントベース表現であるApparent Contour Events (ACE)を提案する。
ACE を事象 x-y-t 空間で定義される空間的かつ時間的に連続な暗黙関数で表現する。
さらに,Apparent Contour Eventsの高時間分解能によって実現された新しい連続Voxel Carvingアルゴリズムを設計する。
提案手法の性能を評価するため,実世界のオブジェクト集合の3次元イベントデータセットMOEC-3Dを収集した。
evac3dが実イベントシーケンスから高忠実度メッシュ表面を再構築する能力を示し,各イベントの3次元再構成を改良した。
関連論文リスト
- 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - Rethinking Event-based Human Pose Estimation with 3D Event
Representations [26.592295349210787]
イベントカメラは、困難なコンテキストをナビゲートするための堅牢なソリューションを提供する。
我々は、Rasterized Event Point CloudとDecoupled Event Voxelの2つの3Dイベント表現を紹介します。
EV-3DPW実験により,従来のRGB画像やイベントフレーム技術と比較して,提案手法のロバスト性を示した。
論文 参考訳(メタデータ) (2023-11-08T10:45:09Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Cross-Dimensional Refined Learning for Real-Time 3D Visual Perception
from Monocular Video [2.2299983745857896]
本稿では3次元シーンの幾何学的構造と意味的ラベルを協調的に知覚する新しいリアルタイム能動的学習法を提案する。
本稿では,3次元メッシュと3次元セマンティックラベリングの両方をリアルタイムに抽出する,エンドツーエンドのクロスディメンテーションニューラルネットワーク(CDRNet)を提案する。
論文 参考訳(メタデータ) (2023-03-16T11:53:29Z) - Voxel-based 3D Detection and Reconstruction of Multiple Objects from a
Single Image [22.037472446683765]
入力画像から3次元特徴持ち上げ演算子を用いて3次元シーン空間に整合した3次元ボクセル特徴の正規格子を学習する。
この3Dボクセルの特徴に基づき,新しいCenterNet-3D検出ヘッドは3D空間におけるキーポイント検出として3D検出を定式化する。
我々は、粗度ボキセル化や、新しい局所PCA-SDF形状表現を含む、効率的な粗度から細度の再構成モジュールを考案する。
論文 参考訳(メタデータ) (2021-11-04T18:30:37Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - E3D: Event-Based 3D Shape Reconstruction [19.823758341937605]
3D形状の再構築は、拡張現実/仮想現実の主要なコンポーネントです。
RGB、RGB-Dおよびライダーのセンサーに基づく前の解決は力およびデータ集中的です。
我々は,イベントカメラ,低消費電力センサ,レイテンシ,データ費用の3次元再構成にアプローチした。
論文 参考訳(メタデータ) (2020-12-09T18:23:21Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。