論文の概要: Object Agnostic 3D Lifting in Space and Time
- arxiv url: http://arxiv.org/abs/2412.01166v2
- Date: Mon, 10 Feb 2025 02:39:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:26:48.744960
- Title: Object Agnostic 3D Lifting in Space and Time
- Title(参考訳): 空間と時間における物体の3次元リフティング
- Authors: Christopher Fusco, Shin-Fang Ch'ng, Mosam Dabhi, Simon Lucey,
- Abstract要約: 時間的シーケンス上での2次元キーポイントのカテゴリーに依存しない3次元リフトについて、時間的視点を示す。
類似したオブジェクトに関する一般的な情報は、より良いパフォーマンスを達成するために利用することができる。
時間的に確率的なコンテキストウィンドウは、シーケンス全体の一貫性を達成するのに有利である。
- 参考スコア(独自算出の注目度): 28.935827804395828
- License:
- Abstract: We present a spatio-temporal perspective on category-agnostic 3D lifting of 2D keypoints over a temporal sequence. Our approach differs from existing state-of-the-art methods that are either: (i) object-agnostic, but can only operate on individual frames, or (ii) can model space-time dependencies, but are only designed to work with a single object category. Our approach is grounded in two core principles. First, general information about similar objects can be leveraged to achieve better performance when there is little object-specific training data. Second, a temporally-proximate context window is advantageous for achieving consistency throughout a sequence. These two principles allow us to outperform current state-of-the-art methods on per-frame and per-sequence metrics for a variety of animal categories. Lastly, we release a new synthetic dataset containing 3D skeletons and motion sequences for a variety of animal categories.
- Abstract(参考訳): 時間的シーケンス上での2次元キーポイントのカテゴリ非依存3次元リフトに関する時空間的視点を示す。
私たちのアプローチは,いずれも既存の最先端メソッドと異なります。
(i)オブジェクトに依存しないが、個々のフレームでしか動作できない、または
(ii) は時空依存をモデル化できるが、単一のオブジェクトカテゴリでのみ動作するように設計されている。
私たちのアプローチは2つの基本原則に基づいています。
まず、類似したオブジェクトに関する一般的な情報は、オブジェクト固有のトレーニングデータが少ない場合に、より良いパフォーマンスを達成するために利用することができる。
第二に、時間的に確率的なコンテキストウィンドウは、シーケンス全体の一貫性を達成するのに有利である。
これらの2つの原則は、さまざまな動物カテゴリーにおいて、フレームごとの最先端の手法とシーケンスごとのメトリクスを上回ります。
最後に,動物カテゴリーの3次元骨格と運動配列を含む新しい合成データセットを作成した。
関連論文リスト
- Universal Features Guided Zero-Shot Category-Level Object Pose Estimation [52.29006019352873]
カテゴリレベルの6-DOFオブジェクトのポーズ推定を実現するゼロショット手法を提案する。
提案手法は,入力RGB-D画像の2次元と3次元の普遍的特徴を利用して,意味的類似性に基づく対応性を確立する。
提案手法は,REAL275およびWild6Dベンチマークにおいて,未知のカテゴリに対して従来手法よりも優れていた。
論文 参考訳(メタデータ) (2025-01-06T08:10:13Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - OGC: Unsupervised 3D Object Segmentation from Rigid Dynamics of Point
Clouds [4.709764624933227]
OGCと呼ばれる最初の教師なしの手法を提案し、同時に複数の3Dオブジェクトを1つの前方通過で識別する。
提案手法を5つのデータセット上で広範囲に評価し,オブジェクト部分のインスタンスセグメンテーションにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-10T07:01:08Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - Multi-Category Mesh Reconstruction From Image Collections [90.24365811344987]
本稿では, 一連の変形可能な3次元モデルとインスタンス固有の変形, ポーズ, テクスチャのセットを組み合わせた, オブジェクトのテクスチャメッシュを推定する手法を提案する。
本手法は,前景マスクと粗いカメラポーズのみを監督として,複数の対象カテゴリの画像を用いて訓練する。
実験により,提案フレームワークは異なる対象カテゴリを区別し,教師なしの方法でカテゴリ固有の形状を学習できることが示唆された。
論文 参考訳(メタデータ) (2021-10-21T16:32:31Z) - Disentangling What and Where for 3D Object-Centric Representations
Through Active Inference [4.088019409160893]
本稿では、時間とともに新しいオブジェクトカテゴリを学習できるアクティブ推論エージェントを提案する。
我々のエージェントは、教師なしの方法で、多くのオブジェクトカテゴリの表現を学習できることを示す。
我々は,エージェントが画素ベースのレンダリングから与えられたポーズでオブジェクトを検索できるエンドツーエンドでシステムを検証する。
論文 参考訳(メタデータ) (2021-08-26T12:49:07Z) - BundleTrack: 6D Pose Tracking for Novel Objects without Instance or
Category-Level 3D Models [1.14219428942199]
この研究は、オブジェクトの6Dポーズトラッキングのための一般的なフレームワークである BundleTrackを提案する。
フレームワークの効率的な実装は、フレームワーク全体に対してリアルタイムな10Hzのパフォーマンスを提供する。
論文 参考訳(メタデータ) (2021-08-01T18:14:46Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。