論文の概要: Sim2Real Instance-Level Style Transfer for 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2203.02069v1
- Date: Thu, 3 Mar 2022 23:46:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:44:41.049205
- Title: Sim2Real Instance-Level Style Transfer for 6D Pose Estimation
- Title(参考訳): sim2real instance-level style transfer による6次元ポーズ推定
- Authors: Takuya Ikeda, Suomi Tanishige, Ayako Amma, Michael Sudano, Herv\'e
Audren, Koichi Nishiwaki
- Abstract要約: 本研究では,6次元ポーズ推定ネットワークトレーニングのための実時間(sim2real)インスタンスレベルの転送手法を提案する。
提案手法は,人間の介入なしに,対象物体のスタイルを人工物から現実物へ個別に伝達する。
- 参考スコア(独自算出の注目度): 0.4893345190925177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, synthetic data has been widely used in the training of 6D
pose estimation networks, in part because it automatically provides perfect
annotation at low cost. However, there are still non-trivial domain gaps, such
as differences in textures/materials, between synthetic and real data. These
gaps have a measurable impact on performance. To solve this problem, we
introduce a simulation to reality (sim2real) instance-level style transfer for
6D pose estimation network training. Our approach transfers the style of target
objects individually, from synthetic to real, without human intervention. This
improves the quality of synthetic data for training pose estimation networks.
We also propose a complete pipeline from data collection to the training of a
pose estimation network and conduct extensive evaluation on a real-world
robotic platform. Our evaluation shows significant improvement achieved by our
method in both pose estimation performance and the realism of images adapted by
the style transfer.
- Abstract(参考訳): 近年,6次元ポーズ推定ネットワークの訓練において合成データが広く利用されている。
しかし、合成データと実際のデータの間には、テクスチャや素材の違いなど、まだ自明な領域ギャップがある。
これらのギャップはパフォーマンスに測定可能な影響を与えます。
この問題を解決するために,6次元ポーズ推定ネットワークトレーニングのためのシミュレーションを現実(sim2real)インスタンスレベルで導入する。
私たちのアプローチは、人間の介入なしに、合成から現実へとターゲットオブジェクトのスタイルを個々に転送します。
これにより、ポーズ推定ネットワークのトレーニングのための合成データの品質が向上する。
また,データ収集からポーズ推定ネットワークのトレーニングまでの完全なパイプラインを提案し,実世界のロボットプラットフォーム上で広範な評価を行う。
提案手法は,ポーズ推定性能とスタイル転送に適応した画像の写実性の両方において有意な改善を示した。
関連論文リスト
- Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Robust Category-Level 3D Pose Estimation from Synthetic Data [17.247607850702558]
CADモデルから生成されたオブジェクトポーズ推定のための新しい合成データセットであるSyntheticP3Dを紹介する。
逆レンダリングによるポーズ推定を行うニューラルネットワークモデルをトレーニングするための新しいアプローチ(CC3D)を提案する。
論文 参考訳(メタデータ) (2023-05-25T14:56:03Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - Estimating the Pose of a Euro Pallet with an RGB Camera based on
Synthetic Training Data [0.0]
本研究では,パレットの6次元ポーズ推定のための合成トレーニングデータの生成について述べる。
データは、Deep Object Pose Estimation (DOPE)アルゴリズムのトレーニングに使用される。
このアルゴリズムの実験的検証により,RGBカメラを用いた標準ユーロパレットの6次元ポーズ推定が可能であることが証明された。
論文 参考訳(メタデータ) (2022-10-12T08:13:11Z) - Sim-to-Real 6D Object Pose Estimation via Iterative Self-training for
Robotic Bin-picking [98.5984733963713]
コスト効率の良いロボットグルーピングを容易にするために,シミュレート・トゥ・リアルな6次元オブジェクトのポーズ推定のための反復的自己学習フレームワークを提案する。
我々は、豊富な仮想データを合成するためのフォトリアリスティックシミュレータを構築し、これを初期ポーズ推定ネットワークのトレーニングに利用する。
このネットワークは教師モデルの役割を担い、未ラベルの実データに対するポーズ予測を生成する。
論文 参考訳(メタデータ) (2022-04-14T15:54:01Z) - Occlusion-Aware Self-Supervised Monocular 6D Object Pose Estimation [88.8963330073454]
自己教師付き学習による新しい単眼6次元ポーズ推定手法を提案する。
ノイズの多い学生のトレーニングと差別化可能なレンダリングの現在の傾向を活用して、モデルをさらに自己監督する。
提案する自己超越法は,合成データに依存する他の方法よりも優れている。
論文 参考訳(メタデータ) (2022-03-19T15:12:06Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Generating Annotated Training Data for 6D Object Pose Estimation in
Operational Environments with Minimal User Interaction [1.0044401320520304]
本稿では,6次元物体ポーズ推定のためのアノテートトレーニングデータを自動生成する新しい手法に対する概念実証を行う。
このアプローチは、運用環境で新しいオブジェクトを学習すると同時に、ほとんどインタラクションを必要とせず、ユーザの部分に関する専門知識も必要としないように設計されている。
論文 参考訳(メタデータ) (2021-03-17T14:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。