論文の概要: Source-Free and Image-Only Unsupervised Domain Adaptation for Category
Level Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2401.10848v1
- Date: Fri, 19 Jan 2024 17:48:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 15:11:36.290973
- Title: Source-Free and Image-Only Unsupervised Domain Adaptation for Category
Level Object Pose Estimation
- Title(参考訳): カテゴリレベルオブジェクトポーズ推定のためのソースフリーかつ画像のみの教師なしドメイン適応
- Authors: Prakhar Kaushik, Aayush Mishra, Adam Kortylewski, Alan Yuille
- Abstract要約: 3DUDAは、3Dや深度データを使わずに、ニュアンスドライデンのターゲットドメインに適応できる手法である。
対象のカテゴリを単純な立方体メッシュとして表現し、ニューラル特徴活性化の生成モデルを利用する。
本手法は,グローバルな擬似ラベル付きデータセットの微調整を軽度な仮定でシミュレートする。
- 参考スコア(独自算出の注目度): 18.011044932979143
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of source-free unsupervised category-level pose
estimation from only RGB images to a target domain without any access to source
domain data or 3D annotations during adaptation. Collecting and annotating
real-world 3D data and corresponding images is laborious, expensive, yet
unavoidable process, since even 3D pose domain adaptation methods require 3D
data in the target domain. We introduce 3DUDA, a method capable of adapting to
a nuisance-ridden target domain without 3D or depth data. Our key insight stems
from the observation that specific object subparts remain stable across
out-of-domain (OOD) scenarios, enabling strategic utilization of these
invariant subcomponents for effective model updates. We represent object
categories as simple cuboid meshes, and harness a generative model of neural
feature activations modeled at each mesh vertex learnt using differential
rendering. We focus on individual locally robust mesh vertex features and
iteratively update them based on their proximity to corresponding features in
the target domain even when the global pose is not correct. Our model is then
trained in an EM fashion, alternating between updating the vertex features and
the feature extractor. We show that our method simulates fine-tuning on a
global pseudo-labeled dataset under mild assumptions, which converges to the
target domain asymptotically. Through extensive empirical validation, including
a complex extreme UDA setup which combines real nuisances, synthetic noise, and
occlusion, we demonstrate the potency of our simple approach in addressing the
domain shift challenge and significantly improving pose estimation accuracy.
- Abstract(参考訳): 本稿では,RGB画像のみからターゲットドメインへの変換時に,ソースドメインデータや3Dアノテーションにアクセスせずに,ソースフリーなカテゴリレベルのポーズ推定を行う問題について考察する。
実世界の3Dデータとそれに対応する画像の収集と注釈付けは、複雑で費用がかかるが避けられないプロセスである。
3Dデータや深度データを使わずに、ニュアンスドライディングされたターゲットドメインに適応できる3DUDAを導入する。
我々の重要な洞察は、特定のオブジェクトサブパートメントがドメイン外(OOD)シナリオ全体にわたって安定したままであり、効果的なモデル更新のためにこれらの不変サブコンポーネントの戦略的利用を可能にすることに起因しています。
対象カテゴリを単純な立方体メッシュとして表現し、差分レンダリングを用いて学習した各メッシュ頂点でモデル化されたニューラル特徴アクティベーションの生成モデルを利用する。
我々は、局所的に堅牢なメッシュ頂点の特徴に着目し、グローバルなポーズが正しくない場合でも、ターゲット領域の対応する特徴に近接して繰り返し更新する。
我々のモデルはEM方式で訓練され、頂点特徴と特徴抽出器の更新を交互に行う。
本手法は,対象領域に漸近的に収束する軽度仮定下でのグローバル擬似ラベルデータセットの微調整をシミュレートする。
実際のノイズ、合成ノイズ、閉塞を組み合わせた複雑なUDA構成を含む広範な実証的検証を通じて、我々は、ドメインシフト問題に対処し、ポーズ推定精度を大幅に改善する簡単なアプローチの有効性を実証する。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - STAL3D: Unsupervised Domain Adaptation for 3D Object Detection via Collaborating Self-Training and Adversarial Learning [21.063779140059157]
既存の3Dオブジェクト検出は、ドメインギャップのため、高価なアノテーションコストと未知のデータへの転送性に悩まされる。
STAL3Dと呼ばれるSTとALの協調による3次元オブジェクト検出のための新しい非教師付きドメイン適応フレームワークを提案し、擬似ラベルと特徴分布アライメントの相補的利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-06-27T17:43:35Z) - CMDA: Cross-Modal and Domain Adversarial Adaptation for LiDAR-Based 3D
Object Detection [14.063365469339812]
LiDARベースの3Dオブジェクト検出法は、ソース(またはトレーニング)データ配布の外部のターゲットドメインにうまく一般化しないことが多い。
画像のモダリティから視覚的セマンティックキューを活用する,CMDA (unsupervised domain adaptation) と呼ばれる新しい手法を提案する。
また、自己学習に基づく学習戦略を導入し、モデルが逆向きに訓練され、ドメイン不変の機能を生成する。
論文 参考訳(メタデータ) (2024-03-06T14:12:38Z) - 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Towards Model Generalization for Monocular 3D Object Detection [57.25828870799331]
我々は,Mono3Dオブジェクト検出に有効な統合カメラ一般化パラダイム(CGP)を提案する。
また,インスタンスレベルの拡張によりギャップを埋める2D-3D幾何一貫性オブジェクトスケーリング戦略(GCOS)を提案する。
DGMono3Dと呼ばれる手法は、評価された全てのデータセットに対して顕著な性能を達成し、SoTAの教師なしドメイン適応スキームを上回ります。
論文 参考訳(メタデータ) (2022-05-23T23:05:07Z) - Unsupervised Domain Adaptation for Monocular 3D Object Detection via
Self-Training [57.25828870799331]
我々は、Mono3D上での教師なしドメイン適応のための新しい自己学習フレームワークSTMono3Dを提案する。
対象ドメイン上で適応的な擬似ラベルを生成するための教師学生パラダイムを開発する。
STMono3Dは、評価されたすべてのデータセットで顕著なパフォーマンスを達成し、KITTI 3Dオブジェクト検出データセットの完全な教師付き結果を超えています。
論文 参考訳(メタデータ) (2022-04-25T12:23:07Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。