論文の概要: Accidental Turntables: Learning 3D Pose by Watching Objects Turn
- arxiv url: http://arxiv.org/abs/2212.06300v1
- Date: Tue, 13 Dec 2022 00:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:48:32.932410
- Title: Accidental Turntables: Learning 3D Pose by Watching Objects Turn
- Title(参考訳): Accidental Turntables: オブジェクトが回転するのを見て3D画像を学ぶ
- Authors: Zezhou Cheng, Matheus Gadelha, Subhransu Maji
- Abstract要約: そこで本研究では,物体が回転する地中ビデオの新たな情報源を利用して,単視点3Dオブジェクトのポーズ推定モデルを学習する手法を提案する。
近年のインスタンス検出と特徴マッチングの進歩と相まって,従来の構造移動アルゴリズムが驚くほど正確な3Dポーズ推定を実現していることを示す。
- 参考スコア(独自算出の注目度): 36.71437141704823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a technique for learning single-view 3D object pose estimation
models by utilizing a new source of data -- in-the-wild videos where objects
turn. Such videos are prevalent in practice (e.g., cars in roundabouts,
airplanes near runways) and easy to collect. We show that classical
structure-from-motion algorithms, coupled with the recent advances in instance
detection and feature matching, provides surprisingly accurate relative 3D pose
estimation on such videos. We propose a multi-stage training scheme that first
learns a canonical pose across a collection of videos and then supervises a
model for single-view pose estimation. The proposed technique achieves
competitive performance with respect to existing state-of-the-art on standard
benchmarks for 3D pose estimation, without requiring any pose labels during
training. We also contribute an Accidental Turntables Dataset, containing a
challenging set of 41,212 images of cars in cluttered backgrounds, motion blur
and illumination changes that serves as a benchmark for 3D pose estimation.
- Abstract(参考訳): 本稿では,オブジェクトが回転するwildビデオ中の新たなデータソースを利用して,単視点3次元物体ポーズ推定モデルを学ぶ手法を提案する。
このようなビデオは実際に普及しており(例えば、ラウンドアラウンドの車、滑走路近くの飛行機)、収集が容易である。
近年のインスタンス検出と特徴マッチングの進歩と相まって,従来の構造移動アルゴリズムが驚くほど正確な3次元ポーズ推定を提供することを示す。
そこで本研究では,まずビデオ群全体の標準ポーズを学習し,その後に単視点ポーズ推定のためのモデルを監督する多段階学習手法を提案する。
提案手法は,トレーニング中にポーズラベルを必要とせず,既存の3次元ポーズ推定のための標準ベンチマークに対する競合性能を実現する。
また,3次元ポーズ推定のベンチマークとして機能する不測の背景画像,動きのぼやけ,照明変化など41,212枚の車両画像を含む,偶然のターンテーブルデータセットもコントリビュートする。
関連論文リスト
- Unsupervised Learning of Category-Level 3D Pose from Object-Centric Videos [15.532504015622159]
カテゴリーレベルの3Dポーズ推定は、コンピュータビジョンとロボット工学において基本的に重要な問題である。
カテゴリーレベルの3Dポーズを,カジュアルに撮られた対象中心の動画からのみ推定する学習の課題に取り組む。
論文 参考訳(メタデータ) (2024-07-05T09:43:05Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - MetaPose: Fast 3D Pose from Multiple Views without 3D Supervision [72.5863451123577]
正確な3Dポーズとカメラ推定が可能なニューラルモデルをトレーニングする方法を示す。
本手法は,古典的バンドル調整と弱教師付き単分子3Dベースラインの両方に優れる。
論文 参考訳(メタデータ) (2021-08-10T18:39:56Z) - Pose Estimation and 3D Reconstruction of Vehicles from Stereo-Images
Using a Subcategory-Aware Shape Prior [0.0]
物体やコンピュータビジョンの3D再構成は、移動ロボット自動運転など、多くのアプリケーションにとって必須条件である。
本研究の目的は,従来の形状観察から3次元物体の復元がいかに利益を得るかを示すことである。
論文 参考訳(メタデータ) (2021-07-22T19:47:49Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Self-Supervised Multi-View Synchronization Learning for 3D Pose
Estimation [39.334995719523]
現在の方法では、画像の大規模なデータセットと対応するスケルトンポーズに基づいてニューラルネットワークをトレーニングすることで、学習問題としてモノラルな3次元ポーズ推定が採用されている。
そこで本稿では,ラベルなしデータセットの自己教師付き学習を通じて事前学習した微調整ネットワークによって,小さな注釈付きデータセットを活用できるアプローチを提案する。
我々は,Human3.6Mデータセット上での同期タスクの有効性を実証し,人間の3次元ポーズ推定における最先端結果を実現する。
論文 参考訳(メタデータ) (2020-10-13T08:01:24Z) - Integration of the 3D Environment for UAV Onboard Visual Object Tracking [7.652259812856325]
無人航空機からの単一の視覚的物体追跡は、根本的な課題となる。
本研究では,モデルフリーのビジュアルオブジェクトトラッカー,スパース3D再構成,状態推定器を組み合わせたパイプラインを提案する。
画像空間ではなく3次元空間における目標位置を表現することにより,エゴモーション時のトラッキングを安定化させる。
論文 参考訳(メタデータ) (2020-08-06T18:37:29Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image
Synthesis [72.34794624243281]
ラベルのないビデオフレームからバリエーションを分離する自己教師付き学習フレームワークを提案する。
3Dポーズと空間部分マップの表現ギャップを埋める、微分可能な形式化により、多様なカメラの動きを持つビデオで操作できる。
論文 参考訳(メタデータ) (2020-04-09T07:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。