論文の概要: Object Agnostic 3D Lifting in Space and Time
- arxiv url: http://arxiv.org/abs/2412.01166v1
- Date: Mon, 02 Dec 2024 06:09:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:49:59.538443
- Title: Object Agnostic 3D Lifting in Space and Time
- Title(参考訳): 空間と時間における物体の3次元リフティング
- Authors: Christopher Fusco, Mosam Dabhi, Shin-Fang Ch'ng, Simon Lucey,
- Abstract要約: カテゴリー非依存の3Dキーリフトにおけるカテゴリー非依存の視点を時間的シーケンス上で提示する。
まず、オブジェクトに関するデータが不足している場合、類似したオブジェクトからの一般的な情報が活用され、パフォーマンスが向上します。
第二に、時間情報は重要だが、最も重要な情報は即時近接である。
- 参考スコア(独自算出の注目度): 28.935827804395828
- License:
- Abstract: We present a spatio-temporal perspective on category-agnostic 3D lifting of 2D keypoints over a temporal sequence. Our approach differs from existing state-of-the-art methods that are either: (i) object agnostic, but can only operate on individual frames, or (ii) can model space-time dependencies, but are only designed to work with a single object category. Our approach is grounded in two core principles. First, when there is a lack of data about an object, general information from similar objects can be leveraged for better performance. Second, while temporal information is important, the most critical information is in immediate temporal proximity. These two principles allow us to outperform current state-of-the-art methods on per-frame and per-sequence metrics for a variety of objects. Lastly, we release a new synthetic dataset containing 3D skeletons and motion sequences of a diverse set animals. Dataset and code will be made publicly available.
- Abstract(参考訳): 時間的シーケンス上での2次元キーポイントのカテゴリ非依存3次元リフトに関する時空間的視点を示す。
私たちのアプローチは,いずれも既存の最先端メソッドと異なります。
(i)対象非依存であるが、個々のフレームでしか動作できない、または
(ii) は時空依存をモデル化できるが、単一のオブジェクトカテゴリでのみ動作するように設計されている。
私たちのアプローチは2つの基本原則に基づいています。
まず、オブジェクトに関するデータが不足している場合、類似したオブジェクトからの一般的な情報はより良いパフォーマンスのために利用できます。
第二に、時間情報は重要だが、最も重要な情報は即時近接である。
これらの2つの原則は、さまざまなオブジェクトのフレーム単位およびシーケンス単位のメトリクスにおいて、最先端のメソッドよりも優れたパフォーマンスを実現します。
最後に,3次元骨格と多種多様な動物の運動配列を含む新しい合成データセットを作成した。
データセットとコードは公開されます。
関連論文リスト
- ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Contrastive Lift: 3D Object Instance Segmentation by Slow-Fast
Contrastive Fusion [110.84357383258818]
本稿では,2次元セグメントを3次元に上げ,ニューラルネットワーク表現を用いて融合させる新しい手法を提案する。
このアプローチの中核は、高速なクラスタリング目的関数であり、多数のオブジェクトを持つシーンにスケーラブルで適しています。
我々のアプローチは、ScanNet、Hypersim、Replicaのデータセットからの挑戦的なシーンにおいて、最先端の状況よりも優れています。
論文 参考訳(メタデータ) (2023-06-07T17:57:45Z) - Real-time Simultaneous Multi-Object 3D Shape Reconstruction, 6DoF Pose
Estimation and Dense Grasp Prediction [27.452365570403238]
シーン内の全てのオブジェクトの幾何学的・意味的な情報を提供する新しい手法を提案する。
提案手法は,オブジェクトの形状,ポーズ,予測の把握など,最先端の専用手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-05-16T15:03:20Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - Tackling Background Distraction in Video Object Segmentation [7.187425003801958]
ビデオオブジェクトセグメンテーション(VOS)は、ビデオ内の特定のオブジェクトを密に追跡することを目的としている。
このタスクの主な課題の1つは、ターゲットオブジェクトに類似したように見えるバックグラウンド・トラクタの存在である。
このような混乱を抑制するための3つの新しい戦略を提案する。
我々のモデルは,リアルタイムな性能であっても,現代の最先端手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-14T14:25:19Z) - SpOT: Spatiotemporal Modeling for 3D Object Tracking [68.12017780034044]
3Dマルチオブジェクトトラッキングは、常にすべてのモバイル時間を特定することを目的としている。
現在の3Dトラッキング手法は、抽象化された情報と限られた歴史に依存している。
本研究では,空間的情報と時間的情報の両方を活用するシーンの全体的表現を開発する。
論文 参考訳(メタデータ) (2022-07-12T21:45:49Z) - BundleTrack: 6D Pose Tracking for Novel Objects without Instance or
Category-Level 3D Models [1.14219428942199]
この研究は、オブジェクトの6Dポーズトラッキングのための一般的なフレームワークである BundleTrackを提案する。
フレームワークの効率的な実装は、フレームワーク全体に対してリアルタイムな10Hzのパフォーマンスを提供する。
論文 参考訳(メタデータ) (2021-08-01T18:14:46Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。