論文の概要: Exploit Clues from Views: Self-Supervised and Regularized Learning for
Multiview Object Recognition
- arxiv url: http://arxiv.org/abs/2003.12735v1
- Date: Sat, 28 Mar 2020 07:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:46:01.682607
- Title: Exploit Clues from Views: Self-Supervised and Regularized Learning for
Multiview Object Recognition
- Title(参考訳): 視点からのヒントの活用:多視点物体認識のための自己教師あり正規化学習
- Authors: Chih-Hui Ho, Bo Liu, Tz-Ying Wu, Nuno Vasconcelos
- Abstract要約: 本研究では,マルチビュー自己教師型学習(MV-SSL)の問題点について検討する。
対象不変」表現を追求し,自己指導型学習のための新しい代理課題を提案する。
実験の結果,ビュー不変プロトタイプ埋め込み(VISPE)による認識と検索は,他の自己教師あり学習方法よりも優れていた。
- 参考スコア(独自算出の注目度): 66.87417785210772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiview recognition has been well studied in the literature and achieves
decent performance in object recognition and retrieval task. However, most
previous works rely on supervised learning and some impractical underlying
assumptions, such as the availability of all views in training and inference
time. In this work, the problem of multiview self-supervised learning (MV-SSL)
is investigated, where only image to object association is given. Given this
setup, a novel surrogate task for self-supervised learning is proposed by
pursuing "object invariant" representation. This is solved by randomly
selecting an image feature of an object as object prototype, accompanied with
multiview consistency regularization, which results in view invariant
stochastic prototype embedding (VISPE). Experiments shows that the recognition
and retrieval results using VISPE outperform that of other self-supervised
learning methods on seen and unseen data. VISPE can also be applied to
semi-supervised scenario and demonstrates robust performance with limited data
available. Code is available at https://github.com/chihhuiho/VISPE
- Abstract(参考訳): マルチビュー認識は文献でよく研究されており、オブジェクト認識および検索タスクにおいて十分な性能を発揮する。
しかしながら、以前のほとんどの著作は教師付き学習と、トレーニングや推論時間におけるすべてのビューの可利用性など、いくつかの非現実的前提に依存している。
本研究では,多視点自己教師型学習(MV-SSL)の問題について検討し,対象関係の画像のみを与える。
この設定を前提として,「対象不変性」表現を追求し,自己教師付き学習のための新しいサロゲートタスクを提案する。
これは、オブジェクトのイメージ特徴をオブジェクトプロトタイプとしてランダムに選択し、マルチビュー一貫性の正規化を伴い、ビュー不変確率的プロトタイプ埋め込み(vispe)となる。
実験の結果,VISPEを用いた認識と検索は,他の自己教師あり学習手法よりも優れていた。
VISPEは半教師付きシナリオにも適用でき、限られたデータで堅牢なパフォーマンスを示す。
コードはhttps://github.com/chihhuiho/VISPEで入手できる。
関連論文リスト
- Heuristic Vision Pre-Training with Self-Supervised and Supervised
Multi-Task Learning [0.0]
マルチタスク方式で自己教師型と教師型の両方の視覚的プレテキストタスクを採用することで、新しい事前学習フレームワークを提案する。
その結果、事前学習したモデルでは、複数の視覚的タスクにおいて、最先端(SOTA)結果と同等以上の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-11T14:06:04Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Learning Robust Visual-Semantic Embedding for Generalizable Person
Re-identification [11.562980171753162]
一般化可能な人物識別(Re-ID)は、機械学習とコンピュータビジョンにおいて非常にホットな研究トピックである。
従来の手法は主に視覚表現学習に焦点をあてるが、訓練中の意味的特徴の可能性を検討することは無視される。
MMETと呼ばれるマルチモーダル等価変換器を提案し,より堅牢なビジュアル・セマンティックな埋め込み学習を実現する。
論文 参考訳(メタデータ) (2023-04-19T08:37:25Z) - Matching Multiple Perspectives for Efficient Representation Learning [0.0]
本稿では,自己教師型学習とマルチパースペクティブマッチング技術を組み合わせたアプローチを提案する。
我々は,同一オブジェクトの複数ビューと多種多様な自己教師付き事前学習アルゴリズムを組み合わせることで,オブジェクト分類性能が向上することを示す。
論文 参考訳(メタデータ) (2022-08-16T10:33:13Z) - On the robustness of self-supervised representations for multi-view
object classification [0.0]
インスタンス識別の目的に基づく自己教師型表現は、オブジェクトの視点や視点の変化に対してより堅牢なオブジェクトの表現に繋がることを示す。
自己監督型表現は、オブジェクトの視点に対してより堅牢であり、新しい視点からオブジェクトの認識を促進するオブジェクトに関するより関連する情報をエンコードしているように見える。
論文 参考訳(メタデータ) (2022-07-27T17:24:55Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Multi-modal Transformers Excel at Class-agnostic Object Detection [105.10403103027306]
既存の手法では、人間の理解可能な意味論によって支配されるトップダウンの監視信号が欠落していると論じる。
マルチスケール特徴処理と変形可能な自己アテンションを用いた効率よく柔軟なMViTアーキテクチャを開発した。
多様なアプリケーションにおけるMViT提案の重要性を示す。
論文 参考訳(メタデータ) (2021-11-22T18:59:29Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。