論文の概要: EOPose : Exemplar-based object reposing using Generalized Pose Correspondences
- arxiv url: http://arxiv.org/abs/2505.03394v1
- Date: Tue, 06 May 2025 10:17:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.330122
- Title: EOPose : Exemplar-based object reposing using Generalized Pose Correspondences
- Title(参考訳): EOPose : 一般化された詩対応を用いた模範的オブジェクトレポジティング
- Authors: Sarthak Mehrotra, Rishabh Jain, Mayur Hemani, Balaji Krishnamurthy, Mausoom Sarkar,
- Abstract要約: 汎用オブジェクトリポジトリのためのエンドツーエンドフレームワークを提案する。
提案手法であるEOPoseは、ターゲットポーズ誘導画像を入力として、そのキーポイント対応をソースオブジェクトイメージと組み合わせて、後者をワープし、ターゲットポーズに再レンダリングする。
生成的アプローチとは違って,本手法では,正確な色,テクスチャ,ブランドマークなど,オブジェクトの細かな詳細も保存する。
- 参考スコア(独自算出の注目度): 16.104124493724274
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reposing objects in images has a myriad of applications, especially for e-commerce where several variants of product images need to be produced quickly. In this work, we leverage the recent advances in unsupervised keypoint correspondence detection between different object images of the same class to propose an end-to-end framework for generic object reposing. Our method, EOPose, takes a target pose-guidance image as input and uses its keypoint correspondence with the source object image to warp and re-render the latter into the target pose using a novel three-step approach. Unlike generative approaches, our method also preserves the fine-grained details of the object such as its exact colors, textures, and brand marks. We also prepare a new dataset of paired objects based on the Objaverse dataset to train and test our network. EOPose produces high-quality reposing output as evidenced by different image quality metrics (PSNR, SSIM and FID). Besides a description of the method and the dataset, the paper also includes detailed ablation and user studies to indicate the efficacy of the proposed method
- Abstract(参考訳): 画像内のオブジェクトの格納には無数のアプリケーションがあり、特に製品イメージのさまざまなバリエーションを迅速に生成する必要があるeコマースでは特にそうだ。
本研究では、同じクラスの異なるオブジェクトイメージ間の教師なしキーポイント対応検出の最近の進歩を活用し、ジェネリックオブジェクトのレポジティングのためのエンドツーエンドフレームワークを提案する。
提案手法であるEOPoseは,ターゲットポーズ誘導画像を入力として用いて,そのキーポイントとソースオブジェクトイメージとの対応を利用して,新しい3ステップアプローチを用いてターゲットポーズをワープし,再レンダリングする。
生成的アプローチとは違って,本手法では,正確な色,テクスチャ,ブランドマークなど,オブジェクトの細かな詳細も保存する。
また、Objaverseデータセットに基づいたペアオブジェクトの新しいデータセットを用意して、ネットワークをトレーニングし、テストします。
EOPoseは、異なる画像品質指標(PSNR、SSIM、FID)によって証明された高品質な再現出力を生成する。
提案手法とデータセットの記載に加えて,提案手法の有効性を示すための詳細なアブレーションとユーザスタディも含んでいる。
関連論文リスト
- Resolving Multi-Condition Confusion for Finetuning-Free Personalized Image Generation [10.416673784744281]
本稿では,複数の参照画像特徴を対応オブジェクトにマージする重み付きマージ手法を提案する。
提案手法は,マルチオブジェクト・パーソナライズされた画像生成のためのConcept101データセットとDreamBoothデータセットの最先端技術よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-09-26T15:04:13Z) - FoundPose: Unseen Object Pose Estimation with Foundation Features [11.32559845631345]
FoundPoseは、単一のRGB画像から見えないオブジェクトを6Dポーズで推定するモデルベースの手法である。
この方法は、オブジェクトやタスク固有のトレーニングを必要とせずに、3Dモデルを使って、新しいオブジェクトを素早くオンボードできる。
論文 参考訳(メタデータ) (2023-11-30T18:52:29Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。