論文の概要: Online Adaptation for Implicit Object Tracking and Shape Reconstruction
in the Wild
- arxiv url: http://arxiv.org/abs/2111.12728v1
- Date: Wed, 24 Nov 2021 19:00:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 16:02:09.624851
- Title: Online Adaptation for Implicit Object Tracking and Shape Reconstruction
in the Wild
- Title(参考訳): 野生における物体追跡と形状復元のためのオンライン適応
- Authors: Jianglong Ye, Yuntao Chen, Naiyan Wang, Xiaolong Wang
- Abstract要約: 本稿では,DeepSDFモデルを用いて野生の3Dオブジェクトの同時追跡と再構成を行う新しい統一フレームワークを提案する。
追跡と形状復元の両面において,最先端手法の大幅な改善が見られた。
- 参考スコア(独自算出の注目度): 22.19769576901151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking and reconstructing 3D objects from cluttered scenes are the key
components for computer vision, robotics and autonomous driving systems. While
recent progress in implicit function (e.g., DeepSDF) has shown encouraging
results on high-quality 3D shape reconstruction, it is still very challenging
to generalize to cluttered and partially observable LiDAR data. In this paper,
we propose to leverage the continuity in video data. We introduce a novel and
unified framework which utilizes a DeepSDF model to simultaneously track and
reconstruct 3D objects in the wild. We online adapt the DeepSDF model in the
video, iteratively improving the shape reconstruction while in return improving
the tracking, and vice versa. We experiment with both Waymo and KITTI datasets,
and show significant improvements over state-of-the-art methods for both
tracking and shape reconstruction.
- Abstract(参考訳): 散らかったシーンから3Dオブジェクトを追跡して再構築することは、コンピュータビジョン、ロボティクス、自動運転システムにとって重要な要素だ。
近年の暗黙的機能(例えばdeepsdf)の進歩は高品質な3d形状再構成を奨励する結果を示しているが、乱雑で部分的に観測可能なlidarデータへの一般化は依然として非常に困難である。
本稿では,映像データの連続性を活用することを提案する。
本稿では,DeepSDFモデルを用いて野生の3Dオブジェクトの同時追跡と再構成を行う新しい統一フレームワークを提案する。
ビデオにdeepsdfモデルを適応させ、トラッキングを改善しながら形状再構成を反復的に改善し、その逆も行う。
我々はWaymoとKITTIの両方のデータセットを実験し、追跡と形状復元の両面で最先端の手法を大幅に改善した。
関連論文リスト
- LASA: Instance Reconstruction from Real Scans using A Large-scale
Aligned Shape Annotation Dataset [17.530432165466507]
本稿では,新しいクロスモーダル形状再構成法とOccGOD法を提案する。
本手法は,インスタンスレベルのシーン再構成と3次元オブジェクト検出の両タスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T18:50:10Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - AutoRecon: Automated 3D Object Discovery and Reconstruction [41.60050228813979]
多視点画像からのオブジェクトの自動発見と再構築のための新しいフレームワークAutoReconを提案する。
本研究では,SfM点群からフォアグラウンド・オブジェクトの位置とセグメンテーションを,自己監督型2次元ビジョン・トランスフォーマーの機能を活用して行うことを実証する。
DTU、BlendedMVS、CO3D-V2データセットの実験はAutoReconの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-05-15T17:16:46Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z) - Class-agnostic Reconstruction of Dynamic Objects from Videos [127.41336060616214]
動的オブジェクトをRGBDや校正ビデオから再構成するためのクラスに依存しないフレームワークであるREDOを紹介する。
我々は2つの新しいモジュールを開発し、まず、時間的視覚的手がかりを集約したピクセル整合性を持つ正準4次元暗黙関数を導入する。
第2に、時間的伝播と集約をサポートするためにオブジェクトのダイナミクスをキャプチャする4D変換モジュールを開発する。
論文 参考訳(メタデータ) (2021-12-03T18:57:47Z) - SAIL-VOS 3D: A Synthetic Dataset and Baselines for Object Detection and
3D Mesh Reconstruction from Video Data [124.2624568006391]
sail-vos 3d: フレーム毎のメッシュアノテーションを備えた合成ビデオデータセット。
また,時間モデルによる映像データから3次元メッシュを再構成するための最初のベースラインを開発した。
論文 参考訳(メタデータ) (2021-05-18T15:42:37Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z) - SDF-SRN: Learning Signed Distance 3D Object Reconstruction from Static
Images [44.78174845839193]
近年の取り組みは、注釈付き2DシルエットによるRGB画像から3Dの監督なしに3Dの再構築を学ぶことに変わった。
これらのテクニックは、トレーニング中に同じオブジェクトインスタンスのマルチビューアノテーションを必要とする。
本研究では,SDF-SRNを提案する。
論文 参考訳(メタデータ) (2020-10-20T17:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。