論文の概要: Do It Yourself: Learning Semantic Correspondence from Pseudo-Labels
- arxiv url: http://arxiv.org/abs/2506.05312v1
- Date: Thu, 05 Jun 2025 17:54:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.879735
- Title: Do It Yourself: Learning Semantic Correspondence from Pseudo-Labels
- Title(参考訳): Do It Yourself: Pseudo-Labelsから意味的対応を学ぶ
- Authors: Olaf Dünkel, Thomas Wimmer, Christian Theobalt, Christian Rupprecht, Adam Kortylewski,
- Abstract要約: 本稿では,3D対応の擬似ラベルを用いた意味対応推定法を提案する。
具体的には, 3D-aware chaining を用いて得られた擬似ラベルを用いて, 既製の特徴を洗練するためのアダプタを訓練する。
データセット固有のアノテーションの必要性を減らしながら、SPair-71kに新たな最先端を4%以上の絶対的なゲインに設定しました。
- 参考スコア(独自算出の注目度): 69.58063088519852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding correspondences between semantically similar points across images and object instances is one of the everlasting challenges in computer vision. While large pre-trained vision models have recently been demonstrated as effective priors for semantic matching, they still suffer from ambiguities for symmetric objects or repeated object parts. We propose to improve semantic correspondence estimation via 3D-aware pseudo-labeling. Specifically, we train an adapter to refine off-the-shelf features using pseudo-labels obtained via 3D-aware chaining, filtering wrong labels through relaxed cyclic consistency, and 3D spherical prototype mapping constraints. While reducing the need for dataset specific annotations compared to prior work, we set a new state-of-the-art on SPair-71k by over 4% absolute gain and by over 7% against methods with similar supervision requirements. The generality of our proposed approach simplifies extension of training to other data sources, which we demonstrate in our experiments.
- Abstract(参考訳): 画像とオブジェクトインスタンスのセマンティックな類似点間の対応を見つけることは、コンピュータビジョンにおける永続的な課題の1つである。
大規模な事前学習された視覚モデルは近年、セマンティックマッチングの効果的な先駆体として実証されているが、それでも対称オブジェクトや繰り返しオブジェクトの曖昧さに悩まされている。
本稿では,3D対応の擬似ラベルを用いた意味対応推定法を提案する。
具体的には, 3D-aware chaining, filtering wrong labels through relaxed cyclic consistency, and 3D spherical prototype mapping constraints。
以前の作業と比べてデータセット固有のアノテーションの必要性を減らしながら、SPair-71kに新たな最先端のアノテーションを4%以上の絶対的なゲインと、同様の監視要件を持つメソッドに対して7%以上設定しました。
提案手法の汎用性は他のデータソースへのトレーニングの拡張を単純化し,本実験で実証した。
関連論文リスト
- Improving Semantic Correspondence with Viewpoint-Guided Spherical Maps [39.00415825387414]
そこで本研究では, 識別的特徴を3次元的理解で補う意味対応推定手法を提案する。
より複雑な3Dパイプラインと比較して、我々のモデルは弱い視点情報しか必要とせず、球面表現の単純さにより、トレーニング中に情報的幾何学的先行情報をモデルに注入することができる。
本研究では,SPair-71kデータセットを用いて,複数のオブジェクトカテゴリにまたがる対称なビューと繰り返し部分の区別が可能であることを実証した。
論文 参考訳(メタデータ) (2023-12-20T17:35:24Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。