論文の概要: Pose-Aware Self-Supervised Learning with Viewpoint Trajectory Regularization
- arxiv url: http://arxiv.org/abs/2403.14973v2
- Date: Wed, 7 Aug 2024 08:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-08 17:50:17.165915
- Title: Pose-Aware Self-Supervised Learning with Viewpoint Trajectory Regularization
- Title(参考訳): 視点軌道規則化による姿勢認識型自己教師付き学習
- Authors: Jiayun Wang, Yubei Chen, Stella X. Yu,
- Abstract要約: 本稿では,視点軌跡から得られた隣接画像三重項の新たなデータセットを提案する。
同じ視覚的特徴に対して意味分類とポーズ推定の精度をベンチマークする。
本実験は,オブジェクトの同一性を符号化した視覚表現の開発に有効であることを示す。
- 参考スコア(独自算出の注目度): 40.5076868823241
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning visual features from unlabeled images has proven successful for semantic categorization, often by mapping different $views$ of the same object to the same feature to achieve recognition invariance. However, visual recognition involves not only identifying $what$ an object is but also understanding $how$ it is presented. For example, seeing a car from the side versus head-on is crucial for deciding whether to stay put or jump out of the way. While unsupervised feature learning for downstream viewpoint reasoning is important, it remains under-explored, partly due to the lack of a standardized evaluation method and benchmarks. We introduce a new dataset of adjacent image triplets obtained from a viewpoint trajectory, without any semantic or pose labels. We benchmark both semantic classification and pose estimation accuracies on the same visual feature. Additionally, we propose a viewpoint trajectory regularization loss for learning features from unlabeled image triplets. Our experiments demonstrate that this approach helps develop a visual representation that encodes object identity and organizes objects by their poses, retaining semantic classification accuracy while achieving emergent global pose awareness and better generalization to novel objects. Our dataset and code are available at http://pwang.pw/trajSSL/.
- Abstract(参考訳): ラベルのない画像から視覚的特徴を学ぶことは、しばしば認識不変性を達成するために、同じオブジェクトの異なる$views$を同じ特徴にマッピングすることで、意味的分類に成功している。
しかし、視覚的認識は、$what$が提示されているオブジェクトを識別するだけでなく、$how$が提示されていることを理解します。
例えば、横から車と正面から車を見ることは、立ち止まるか、道から飛び出すかを決めるのに不可欠だ。
下流視点推論のための教師なし機能学習は重要であるが、標準化された評価方法とベンチマークが欠如していることもあって、未探索のままである。
本稿では,視点軌跡から得られた隣接画像三重項のデータセットについて,意味やポーズのラベルを使わずに紹介する。
同じ視覚的特徴に対して意味分類とポーズ推定の精度をベンチマークする。
さらに,未ラベル画像三重項からの学習特徴に対する視点軌道正則化損失を提案する。
提案手法は, オブジェクトの識別を符号化し, オブジェクトをポーズによって整理する視覚表現の開発に有効であり, 意味分類の精度を維持しつつ, 創発的グローバルポーズ認識を実現し, 新規オブジェクトへのより良い一般化を実現する。
データセットとコードはhttp://pwang.pw/trajSSL/.com/で公開しています。
関連論文リスト
- Measuring the Interpretability of Unsupervised Representations via
Quantized Reverse Probing [97.70862116338554]
本稿では,自己教師付き表現の解釈可能性の測定問題について検討する。
我々は、後者を、表現と手動でラベル付けされた概念の空間の間の相互情報を推定するものとして定式化する。
提案手法は,多人数の自己教師付き表現の評価に利用し,解釈可能性による評価を行う。
論文 参考訳(メタデータ) (2022-09-07T16:18:50Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - Self-Supervised Learning of Object Parts for Semantic Segmentation [7.99536002595393]
我々は、オブジェクト部品の自己教師型学習がこの問題の解決策であると主張している。
本手法は3つのセマンティックセグメンテーションベンチマークの最先端を17%-3%超える。
論文 参考訳(メタデータ) (2022-04-27T17:55:17Z) - Towards Self-Supervised Learning of Global and Object-Centric
Representations [4.36572039512405]
自己スーパービジョンを用いた構造化対象中心表現の学習における重要な側面について論じる。
CLEVRデータセットに関するいくつかの実験を通じて、私たちの洞察を検証します。
論文 参考訳(メタデータ) (2022-03-11T15:18:47Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Zero-shot Learning with Deep Neural Networks for Object Recognition [8.572654816871873]
ゼロショット学習は、視覚的なトレーニングサンプルなしでオブジェクトを認識する能力を扱う。
本章では、ZSL問題に取り組むためのディープニューラルネットワークに基づくアプローチについてレビューする。
論文 参考訳(メタデータ) (2021-02-05T12:27:42Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Debiased Contrastive Learning [64.98602526764599]
我々は,同ラベルデータポイントのサンプリングを補正する,偏りのあるコントラスト目的の開発を行う。
実証的に、提案する目的は、視覚、言語、強化学習ベンチマークにおける表現学習の最先端を一貫して上回る。
論文 参考訳(メタデータ) (2020-07-01T04:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。