論文の概要: STAR: Shape-focused Texture Agnostic Representations for Improved Object
Detection and 6D Pose Estimation
- arxiv url: http://arxiv.org/abs/2402.04878v1
- Date: Wed, 7 Feb 2024 14:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 15:01:54.243794
- Title: STAR: Shape-focused Texture Agnostic Representations for Improved Object
Detection and 6D Pose Estimation
- Title(参考訳): STAR:形状中心のテクスチャ非依存表現による物体検出と6次元空間推定
- Authors: Peter H\"onig, Stefan Thalhammer, Jean-Baptiste Weibel, Matthias
Hirschmanner, Markus Vincze
- Abstract要約: 本稿では,CADモデルからの学習に焦点を当てたテクスチャに依存しないアプローチを提案し,オブジェクト形状の特徴を強調する。
学習形状特徴に焦点を合わせるために、トレーニングデータのレンダリング中にテクスチャをランダム化する。
テクスチャ非依存性はまた、画像ノイズ、動きのぼかし、明るさ変化などの画像摂動に対する堅牢性を高める。
- 参考スコア(独自算出の注目度): 9.899633398596672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in machine learning have greatly benefited object detection
and 6D pose estimation for robotic grasping. However, textureless and metallic
objects still pose a significant challenge due to fewer visual cues and the
texture bias of CNNs. To address this issue, we propose a texture-agnostic
approach that focuses on learning from CAD models and emphasizes object shape
features. To achieve a focus on learning shape features, the textures are
randomized during the rendering of the training data. By treating the texture
as noise, the need for real-world object instances or their final appearance
during training data generation is eliminated. The TLESS and ITODD datasets,
specifically created for industrial settings in robotics and featuring
textureless and metallic objects, were used for evaluation. Texture agnosticity
also increases the robustness against image perturbations such as imaging
noise, motion blur, and brightness changes, which are common in robotics
applications. Code and datasets are publicly available at
github.com/hoenigpeter/randomized_texturing.
- Abstract(参考訳): 機械学習の最近の進歩は、ロボット把持のための物体検出と6次元ポーズ推定に大きな恩恵を受けている。
しかしながら、テクスチャレスやメタリックオブジェクトは、視覚の手がかりが少なく、cnnのテクスチャバイアスが小さいため、依然として大きな課題となっている。
この問題に対処するために,cadモデルからの学習に着目し,オブジェクト形状の特徴を強調するテクスチャ非依存アプローチを提案する。
学習形状特徴に焦点を合わせるために、トレーニングデータのレンダリング中にテクスチャをランダム化する。
テクスチャをノイズとして扱うことにより、実世界のオブジェクトインスタンスやトレーニングデータ生成時の最終的な外観の必要性がなくなる。
TLESSとITODDデータセットは、特にロボット工学の工業的設定のために作成され、テクスチャレスと金属の物体を特徴とする。
テクスチャ非依存性はまた、画像ノイズ、動きのぼかし、明るさの変化などの画像摂動に対する堅牢性を高める。
コードとデータセットはgithub.com/hoenigpeter/randomized_texturingで公開されている。
関連論文リスト
- TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - TexPose: Neural Texture Learning for Self-Supervised 6D Object Pose
Estimation [55.94900327396771]
合成データから6次元オブジェクトポーズ推定のためのニューラルネットワークによるテクスチャ学習を提案する。
実画像からオブジェクトの現実的なテクスチャを予測することを学ぶ。
画素完全合成データからポーズ推定を学習する。
論文 参考訳(メタデータ) (2022-12-25T13:36:32Z) - ObjectStitch: Generative Object Compositing [43.206123360578665]
本研究では,条件付き拡散モデルを用いたオブジェクト合成のための自己教師型フレームワークを提案する。
我々のフレームワークは、手動ラベリングを必要とせず、生成したオブジェクトの視点、幾何学、色、影を変換することができる。
本手法は, 実世界の様々な画像に対するユーザ研究において, 合成結果画像の写実性と忠実性の両方において, 関連ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-12-02T02:15:13Z) - Texturify: Generating Textures on 3D Shape Surfaces [34.726179801982646]
本研究では3次元入力のテクスチャを予測する3次元形状を学習するためにTexturifyを提案する。
本手法では,3Dオブジェクトの学習に3Dカラー管理は不要である。
論文 参考訳(メタデータ) (2022-04-05T18:00:04Z) - RandomRooms: Unsupervised Pre-training from Synthetic Shapes and
Randomized Layouts for 3D Object Detection [138.2892824662943]
有望な解決策は、CADオブジェクトモデルで構成される合成データセットをよりよく利用して、実際のデータセットでの学習を促進することである。
最近の3次元事前学習の研究は、合成物体から他の実世界の応用へ学習した伝達特性が失敗することを示している。
本研究では,この目的を達成するためにRandomRoomsという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:56:12Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Dynamic Object Removal and Spatio-Temporal RGB-D Inpainting via
Geometry-Aware Adversarial Learning [9.150245363036165]
動的物体はロボットの環境に対する認識に大きな影響を及ぼす。
本研究は,動的物体によって隠蔽された領域における可塑性色,テクスチャ,幾何学を合成することにより,この問題に対処する。
本研究は, 対人訓練を用いて建築を最適化し, オンラインで色と深度構造を幻覚できるような, 微妙な現実的なテクスチャを合成する。
論文 参考訳(メタデータ) (2020-08-12T01:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。