論文の概要: Self-supervised Visual Attribute Learning for Fashion Compatibility
- arxiv url: http://arxiv.org/abs/2008.00348v2
- Date: Thu, 12 Aug 2021 01:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:55:45.604092
- Title: Self-supervised Visual Attribute Learning for Fashion Compatibility
- Title(参考訳): Fashion Compatibilityのための自己教師型視覚属性学習
- Authors: Donghyun Kim, Kuniaki Saito, Samarth Mishra, Stan Sclaroff, Kate
Saenko, Bryan A Plummer
- Abstract要約: トレーニング中にラベルを必要とせずに、色やテクスチャを意識した機能を学ぶことができるSSLフレームワークを提案する。
当社のアプローチは,事前の作業で無視される異なる概念を捉えるために設計された3つの自己教師型タスクから構成される。
当社のアプローチは,異なるデータセット上で高いパフォーマンスを達成しながら,ひとつのデータセットでトレーニングできることを実証して,トランスファーラーニングに使用することができることを示す。
- 参考スコア(独自算出の注目度): 71.73414832639698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many self-supervised learning (SSL) methods have been successful in learning
semantically meaningful visual representations by solving pretext tasks.
However, prior work in SSL focuses on tasks like object recognition or
detection, which aim to learn object shapes and assume that the features should
be invariant to concepts like colors and textures. Thus, these SSL methods
perform poorly on downstream tasks where these concepts provide critical
information. In this paper, we present an SSL framework that enables us to
learn color and texture-aware features without requiring any labels during
training. Our approach consists of three self-supervised tasks designed to
capture different concepts that are neglected in prior work that we can select
from depending on the needs of our downstream tasks. Our tasks include learning
to predict color histograms and discriminate shapeless local patches and
textures from each instance. We evaluate our approach on fashion compatibility
using Polyvore Outfits and In-Shop Clothing Retrieval using Deepfashion,
improving upon prior SSL methods by 9.5-16%, and even outperforming some
supervised approaches on Polyvore Outfits despite using no labels. We also show
that our approach can be used for transfer learning, demonstrating that we can
train on one dataset while achieving high performance on a different dataset.
- Abstract(参考訳): 多くの自己教師付き学習(SSL)手法は、意味的に意味のある視覚表現の学習に成功している。
しかし、SSLにおける以前の作業は、オブジェクトの形状を学習し、色やテクスチャといった概念に不変であるべきだと仮定するオブジェクト認識や検出のようなタスクに焦点を当てていた。
したがって、これらのSSLメソッドは、これらの概念が重要な情報を提供する下流のタスクではうまく機能しない。
本稿では、トレーニング中にラベルを必要とせずに、色やテクスチャを意識した特徴を学習できるSSLフレームワークを提案する。
当社のアプローチは,下流タスクのニーズに応じて選択可能な事前作業で無視される,さまざまな概念を捉えるために設計された3つの自己監督タスクから構成される。
私たちのタスクは、色ヒストグラムを予測し、各インスタンスから形のないローカルパッチとテクスチャを識別する学習です。
ポリボアの衣料品を用いたファッション互換性や,deepfashionを用いたショップ内衣料品の検索,以前のssl法を9.5-16%向上させたり,ラベルを使わずにポリボアの衣料品に対する監督的アプローチを上回ったりした。
また,このアプローチをトランスファー学習に応用し,異なるデータセットで高いパフォーマンスを実現しながら,ひとつのデータセットでトレーニングできることを実証した。
関連論文リスト
- Heuristic Vision Pre-Training with Self-Supervised and Supervised
Multi-Task Learning [0.0]
マルチタスク方式で自己教師型と教師型の両方の視覚的プレテキストタスクを採用することで、新しい事前学習フレームワークを提案する。
その結果、事前学習したモデルでは、複数の視覚的タスクにおいて、最先端(SOTA)結果と同等以上の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-11T14:06:04Z) - Mixture of Self-Supervised Learning [2.191505742658975]
自己教師型学習は、特定のタスクに適用される前にモデル上でトレーニングされるプレテキストタスクを使用することで機能する。
従来の研究では、プリテキストタスクとして1つのタイプの変換しか使用されていなかった。
これにより、複数のプリテキストタスクが使用されているかどうか、すべてのプリテキストタスクを組み合わせるためにゲーティングネットワークを使用するかどうか、という疑問が持ち上がる。
論文 参考訳(メタデータ) (2023-07-27T14:38:32Z) - Augmentation-aware Self-supervised Learning with Conditioned Projector [6.720605329045581]
自己教師付き学習(SSL)は、ラベルのないデータから学習するための強力な技術である。
本稿では,プロジェクタネットワークを改良し,表現空間の特徴に対する感受性を高めることを提案する。
提案手法は条件拡張型自己教師学習(CASSLE)と呼ばれ,通常の共同埋め込み型SSL手法に直接適用可能である。
論文 参考訳(メタデータ) (2023-05-31T12:24:06Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - Confidence-Aware Paced-Curriculum Learning by Label Smoothing for
Surgical Scene Understanding [33.62888947753327]
我々は,一様ラベルスムースメント(ULS)を用いたペースドラーニング(P-CBLS)による分類タスクのラベルスムースメント(P-CBLS)と,一様ラベルスムースメント(SVLS)と空間変化ラベルスムースメント(SVLS)を用いたカリキュラムをカリキュラム的に設計する。
トレーニング開始時によりスムーズな値を設定し,モデル学習ユーティリティを下位から上位に制御するために,徐々にゼロに減らした。
提案手法は4つのロボット手術データセットで検証される。
論文 参考訳(メタデータ) (2022-12-22T07:19:15Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - A Tale of Color Variants: Representation and Self-Supervised Learning in
Fashion E-Commerce [2.3449131636069898]
当社のファッション電子商取引プラットフォームにおけるこの問題に対処するため、深層視覚表現学習をその中心に活用する汎用フレームワークを提案する。
我々のフレームワークは、手動で得られる三つ子という形で、監督的な信号で訓練することができる。
しかし、興味深いことに、ファッションeコマースにおけるこの決定的な問題は、単純なカラージッタベースの画像拡張によって解決される可能性がある。
論文 参考訳(メタデータ) (2021-12-06T10:24:54Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。